7月12日,三名自称香港大学女生的用户在社交平台发文披露,一名法律系男生在未经她们允许的情况下,使用网络免费AI软件,合成其社交媒体照片生成裸照。
据悉,该男生电脑中共存有700多张AI合成的不雅照片,涉及20~30位女性。受害者身份范围极广——不仅包括港大同学、朋友、学姐,甚至还有小学同学和中学老师。
然而,香港大学校方介入调查后,该男生仅获得一封警告信并被要求正式道歉。然而其还试图轻描淡写地"道歉了事"。校方回应与男生态度引发全网争议:在隐匿的"技术侵犯"后,规则在哪里?

据亚洲新闻台(CNA)和多家媒体报道,事件始于2025年2月中旬,当时该男生的朋友在其电脑中意外发现了这些分类明确、命名精细的照片文件夹。所有照片素材均来自受害者在社交平台公开发布的近照(多数为截图),经过AI软件处理后被生成裸露图像。3月中旬,部分受害者正式向校方举报;3月下旬至4月中旬,港大教职员先后与两位受害者和证人进行会面了解情况。4月中旬,涉事男生收到校方口头惩戒与档案警告信,并向部分受害者发送了内容仅60余字的道歉信,受害人认为其态度不端正且敷衍了事。7月12日,三名女生匿名发帖公开事件,引发广泛关注。7月13日,港大发布官方声明,表示已处理相关事项并将审慎审视后续行动。据多家媒体梳理,校方曾援引条例中的"胡闹(Ragging)"条款评估该男生行为是否构成可由纪律委员会处理的行为。但在征询律师意见后认为,该行为未触及校规中纪律处分的标准,决定不移交学校纪律委员会。在公告中除了强调"对任何形式的性别歧视、骚扰或不当行为持零容忍态度,将进一步审视事件细节,必要时采取更多行动,确保学生能在安全、受尊重的环境中学习"外,还公布了处理结果包括:大多数受害者认为这一处理过于轻描淡写,缺乏应有的严肃性与诚意。更令人困扰的是,校方未能及时进行教学隔离安排,导致多名受害者在3月至4月期间仍被迫与涉事男生同班上课,直到最后一节补习课才安排调课。图源:新加坡亚洲新闻台(Channel NewsAsia, 简称CNA)在社交媒体评论中,不少网友质疑:作为法律系在读学生为何知法犯法?这样的行为,在道德上固然可憎,法律与制度却为何如此无力?目前香港法律框架中,《窥淫罪》仅适用于拍摄、传播或威胁发布私密影像的行为。港大男生在本案中虽未传播,仅属"生成与保存",因而未构成刑事罪行,所幸仍未在网上流传,没有对当事人造成更大的伤害。律师界对此观点分歧:有意见认为可探讨"性骚扰"的可能性,但也有律师指出,仅凭保存并不足以定罪,香港当前法律对此确实存在空白。加上港大规程对AI图像滥用情形缺乏具体条文约束,仅能以"胡闹"(ragging)归类,处理空间有限。校方在7月13日发布声明,强调对任何形式的性别歧视、骚扰或不当行为"零容忍",但处理过程中既未启动正式纪律委员会程序,也未发布全校通报,处理透明度与制度力度均遭质疑。截至目前,SCMP在报道中称"香港创新科技及工业局暂未具体回应是否将推动高校就AI图像滥用制定统一规章或指引"。图源:《南华早报》(South China Morning Post)事实上,早在港大事件公开前的7月3日,立法会议员容海恩就已在议会发言中指出,香港目前在AI合成图像等新型隐私侵权问题上,"没有刑责,也没有法律保障"。她提到,虽然私隐专员公署发布了一些指引,但这类行为若真发生,"只能道德谴责,却追责无门",呼吁尽快建立应对AI时代的新法制体系。尽管此番发言并非专指港大事件,但无疑揭示了制度漏洞早已显现。图源:會議過程正式紀錄https://www.legco.gov.hk/yr2025/chinese/counmtg/floor/cm20250703-confirm-ec.pdf?utm7月15日,香港特别行政区行政长官李家超出席行政会议前见记者时就此事回应称,大学除了传授学术知识外,更肩负着培养学生品德的责任。"任何对他人造成伤害的行为都可能构成刑事犯罪,也可能侵犯个人权利和隐私。因此,大学应严肃处理学生的不当行为。"
李家超表示,虽然某些不当行为可根据校内规则处理,但任何可能违法的行为都应向执法机构举报。
"香港现行的大部分法例均适用于网络活动,包括《刑事罪行条例》下有关未经受害人同意发布或威胁发布其私密影像、不诚实取用电脑的罪行,以及将侵犯隐私定为刑事犯罪的《个人资料(私隐)条例》。"
李家超7月15日在出席行政会议前会见记者。图源:香港《星岛日报》
李家超提到,2025年4月,特区政府发布了香港生成式人工智能技术及应用指引,为生成式人工智能系统的开发者、服务提供者和使用者提供了切实可行的操作指令。
该指南透过严格遵守技术伦理、道德原则和法律要求,促进安全、负责任地开展生成式人工智能相关业务和活动,同时为应对与生成式人工智能技术相关的安全挑战和风险提供实用的指导和指南。"香港特区政府将密切监测人工智能快速发展和应用的情况,研究全球监管趋势。"
其实AI合成色情图像的问题已在全球范围内多次爆发,港大不是第一个处理AI合成裸照争议的高校,也不会是最后一个。从亚洲到欧美,类似的事件已经不断出现,并正在倒逼各国法律和高校管理体系快速调整。相比之下,韩国、英国等地已启动法案,将deepfake色情的生成行为本身纳入刑责,相关法律机制在动态更新中。例如,韩国将deepfake生成纳入《数字性暴力法》;英国正推动立法将"生成"本身列为犯罪;澳大利亚校园AI裸照案也已由警方立案调查。
图源:法新社 在首尔举行的一场反对深度伪造色情内容的抗议活动在一些国家,高校已不再等待制度落后带来的灾难,而是主动建立AI道德守则、增设AI伦理课程、设立心理与法律支持机制。这些做法未必完美,却说明一个共识正在形成:技术可以进步,规则也必须同步成长。![]()
![]()
![]()
港大事件所引发的震动,不止于社交平台的愤怒情绪,更暴露出高校在AI伦理治理与学生权利保障方面的严重滞后。它所揭示的问题不仅是处理方式之轻,更在于社会对于"技术暴力"认知仍滞留于道德谴责,而未能在制度、法规、校园治理上形成实质规范。AI正在悄无声息地重塑暴力形式——生成可能就是一种"隐私侵犯",保存亦是一种"变相加害"。在这一事件中,"警告"与"道歉信"能否成为正义的终点?更关键的问题是:我们能否在制度与文化层面为下一个受害者筑起防线?香港大学是否会成为制度变革的起点,还是"轻纵AI性侵"的又一个模糊案例?这场风波,也许不应只是一次震惊,而应成为一个真正的分水岭。微信更新了推送机制,很多小伙伴反馈收不到更新,这里建议大家将我们的公众号加一个星标★,以免错过推送哦!
没有评论:
发表评论