要点:
近日,人工智能AI生成的加拿大温尼伯学校女学生假裸照在网路上疯传,引发了大众的关注。随着人工智能的兴起,也正迅速推动虚假色情图片和视频的发展。近年来,人工智能AI生成的裸照问题已经成为对女性和青少年造成严重困扰的一个问题。这些虚构的色情内容透过人工智能的深度造假技术,不仅轻而易举地制造出看似真实的裸体照片,更在网路上广泛传播,对个人的声誉和心理造成难以修复的伤害。
在“速食”成为主流的视听传播时代,社会每天都在产生大量信息。而应该探讨的深度,却永不止于话题或事件本身。我们一起,从社会发展中洞察有价值、有趣、有争论点的生活方式及现象。
狂呼社会研究所聚焦社会变革下不同的声音,向外延申社会背景、文化背景的思考深度,以多角度剖析、独特的社会视角,引领大众感知社会的“人间百态”。
狂呼,为每一个社会现象或事件的背后,提供具有探讨价值的观点,始于洞察、终于启发。
联系我们// 相关文章
近期,加拿大曼尼托巴省温尼伯大学的一起事件中受到关注,有未成年学生的裸照被发现通过人工智能/AI生成并在校内流传。此前,新泽西州威斯特菲尔德高中也发生了类似事件,女学生的不雅照片被证实是透过人工智能生成的虚假图片。这连串事件引起了公众的高度关注,对于“AI假裸照”的蓬勃发展,人们感到前所未有的担忧。
假裸照被发布在网路上
截至2023年12月14日下午,温尼伯大学一位受害者女孩的母亲强调了对于肇事者负责的追究,同时质疑为何人工智能相关公司允许这样的情况发生。该学校回应指出,“原始照片似乎是从公开的社群媒体收集,然后被修改。”但学校并未透露目前分享了多少照片,以及受到伤害的女孩数量。
学校向家长发送的电子邮件中提到,他们正在进行调查,以更全面地了解事件的严重程度和参与人员。此外,相关政府官员也正在积极釆取必要的措施,对已确定分享这些图片的个人进行应对。
目前,学校官员已联系温尼伯加拿大儿童保护中心运营的线上虐待举报热线Cybertip.ca。学校决定将收到的图像上传到Cyachnid项目,以协助删除这些带有“色情因素”的图像。
Cybertip的主管表示,“多年来,透过在年轻人不知情的情况下使用照片编辑程式创建图像然后在网路上共享,一直是一个令人不安的问题。但当下的人工智能,大大加速了这一进程。”尽管以前曾发生过人工智能被用来制作儿童“性虐待”材料的案例,包括魁北克省的一宗案例,但目前尚不清楚以前是否曾发生学校青少年以这种方式伤害其他青少年的案例。这引起了对于当前技术和青少年保护之间交织复杂议题的更深入探讨。
AI假裸照正毁掉无数女性
今年,人工智能正迅速推动虚假色情图片和视频的发展。随着廉价且易于使用的人工智能工具的兴起,这些工具能够在照片中“脱光”本应有衣物的人物,分析他们的裸体样貌,并将其巧妙地嵌入图像中,甚至可以将一张脸毫不费力地转换成色情视频。
业内分析师指出,自2018年以来,在托管人工智能生成的色情照片的十大网站上,假裸照的数量激增了超过290%。这些网站中不仅包括了名人和政治人物,如纽约众议员亚历山大·奥卡西奥科尔特斯,还有一般的年轻女性。她们的形象很容易成为不法分子的攻击目标,被用于引发羞辱、勒索金钱或实现私人的幻想。
然而,受害者几乎没有机会追求法律救济。同时,目前尚未有针对深度色情的联邦法律,只有极少数几个州通过了相关法规。法律学者发出警告,指出人工智能假图像可能不受个人肖像版权的保护,因为它们是从数百万张图像组成的数据集中提取而来。
人工智能图像的出现对女性和青少年构成特别的威胁,因为其中很多人尚未做好接受这种虚假照片的心理准备。监测深度伪造的公司Sensity AI在2019年进行的一项研究发现,96%的深度伪造图像是色情图片,其中99%的照片是以女性为对象。
今年,人工智能生成的色情视频在网络上呈现“爆炸式增长”。通过对40个最受欢迎的假视频网站的搜索,截至2023年已经新增了超过14.3万个视频,这一数字超过了2016年至2022年期间所有新视频的总和。更令人担忧的是,这些虚假视频的浏览量已经超过42亿次。
现实或比想象中更残酷
在5月一个备受欢迎的色情论坛上,一位发帖者发起了一个名为“分享你想看的裸照,我可以利用人工智能进行伪造”的活动。短短几小时后,女性的照片纷至沓来,整个过程仅需几分钟,裸照的虚构版本就迅速在网络上涌现。在这一过程中,多数用户都迫切地期望看到“名人”裸体的模样。
名人成为虚假色情创作者的瞄准对象,他们的目标是利用人们对名演员裸照的搜索兴趣。然而,以名人为主题的网站可能导致其他类型的裸体内容激增。这些网站通常包含来自未知个人的“业余”内容,并附带广告,推销人工智能色情制作工具。
目前,科技巨头谷歌已经制定了相关政策,以防止未经同意的性图片在搜索结果中出现,但在深度伪造图像的保护方面,其措施并不那么强大。深度伪造的色情内容以及制作这些内容的工具,即使在没有专门搜索人工智能生成的内容的情况下,也会在该公司搜索引擎中显著出现。
对此,谷歌的发言人内德·阿德里安斯在一份声明中表示,该公司“积极努力为搜索结果增加更多保护措施”。同时,他指出谷歌允许用户请求删除非自愿的虚假色情内容,并表示公司正在“建立更广泛的保护机制”,不需要受害者单独请求删除内容。
但残酷的现实是,很难惩罚这些内容的创作者
根据美国“通信规范法”第230条,社交媒体公司受到保护,无需对其平台上发布的内容负责,因此网站几乎没有责任对图片进行监管。虽然受害者可以要求公司删除与他们相似的照片和视频,但由于人工智能从大量图像数据集中提取虚假照片,受害者很难断言这些内容完全源自他们自己。
截至目前,在缺乏联邦法律的情况下,至少有9个州,包括加利福尼亚州、德克萨斯州和弗吉尼亚州已经通过了针对深度伪造的立法。然而,这些法律的适用范围各不相同:在一些州,受害者可以提起刑事诉讼,而在另一些州,只允许提起民事诉讼,尽管确定起诉对象非常困难。
近年来,人工智能AI生成的裸照问题已经成为对女性和青少年造成严重困扰的一个问题。这些虚构的色情内容透过人工智能的深度造假技术,不仅轻而易举地制造出看似真实的裸体照片,更在网路上广泛传播,对个人的声誉和心理造成难以修复的伤害。此现象对女性和青少年的隐私和心理健康构成了严重的威胁,并凸显了我们社会中在数位时代面临的安全挑战。因此,有必要透过更严格的法规、技术监管和社会教育,共同努力抵御这种不负责任的AI生成行为,保护个体的尊严和隐私。
观点1
“女学生AI裸照”事件并不是第一次发生。早在本年11月,新泽西州威斯特菲德高中/Westfield High School女学生发现网路流传自己的色情图片,事后证实是透过人工智能/AI生成的假图片,家长虽已报警处理,但受害女学生目前仍心有余悸,当地议员也打算立法禁止相关行为。
据相关资料显示,斯特菲德高中证实有学生利用AI线上工具,制作女学生的裸照并与同学分享。部分家长表示自己女儿事后感到羞辱和无助,并担心如果图片进一步曝光,会对女学生造成伤害。目前当地警方已着手调查,议员也要求检察官介入。更有家长表示,一想到这件事会如何演变,就非常害怕,没有人能保证这事件时候会对女学生的职业、学术或社交方面造成影响。 ”
Reality Defender执行长科尔曼/Ben Colman指出,AI生成假图片技术的进步迅速,过去需要多部电脑的作业现在仅需一支iPhone即可完成。尽管OpenAI的Dall-E和Adobe的Firefly等知名图片生成服务已设有防堵生成色情图片的门槛,但在网路上仍然普遍存在各种“换脸”或“脱衣”工具。
目前仅有少数州,如维吉尼亚州、加州、明尼苏达和纽约州,已经立法禁止流传伪造的色情作品,并赋予受害者权利控告创作者。威斯特菲德选区的州参议员布兰尼克/Jon Bramnick表示,他正在评估现有法律是否足以定罪此类行为,并积极寻求可能推动相关法案的方式。
观点2
除了科技企业和学校针对个人照片被AI滥用采取措施外,政府在这方面也扮演着极为重要的角色。美国总统拜登于10月30日签署了全美首例涉及人工智能/AI的行政命令,要求企业在公开模型前向政府通报安全测试结果,以确保风险控制和创新发展并存。
这项行政命令是美国政府迄今在打击AI威胁方面所采取的最全面措施,牵涉范围从国家安全到国际竞争,甚至至于保护消费者隐私。在签署涉及人工智能的全面行政命令时,拜登总统甚至以轻松的口吻表示,“看到Deepfake深度伪造的自己是一种奇怪的体验,甚至对于自己何时说过那种话完全没有印象。”
他的调侃不仅意味深长,还将这项行政命令与一种人人都能理解的人工智能危害联系在一起,即冒充他人。随着近期虚拟裸照泛滥,已经摧毁了许多高中女孩的生活,这些日常事件都指向一个重要的事实,那就是监管人工智能的努力是否成功,将决定政府能否专注于解决DeepFake等实际问题,而不是被人工智能主宰人类等臆想危险所淹没。
拜登的行政命令甚至超越了欧洲政府的监管范畴,从无处不在的诈骗到大规模杀伤性武器的研发,包揽了人们能够想像到的几乎所有潜在风险。该命令旨在为人工智能的安全性和可信度设定标准,建立一个开发人工智慧工具的网路安全计划,同时要求开发可能对国家安全构成威胁的人工智能系统的企业主动向联邦政府分享安全测试结果。