端传媒:AI深伪色情急增,如何才能制止新型性暴力?

在3月19日-20日,全球首个“深伪侵犯”(deepfake abuse)网上研讨会召开,期间公布一个震撼的数据:至今全球已知的互联网深伪色情影片超27万条,比起2019年的1.4万条激增18倍,而这些影片的总观看次数多达40亿次。

深伪色情是一种新形态的影像性暴力,指未经本人同意将脸“移植”到性影像。在2017年,深伪移植技术开始进入公众视野,主要指透过人工智慧(AI)中的深度学习(Deep Learning)技术合成的伪造图像、影片、声音。只需特定对象的大量影音素材,Deepfake 技术就能制作出拟真的影片。

然而,其诞生很快就伴随针对女性的影像性暴力。根据位于荷兰的身份验证公司 Sensity AI 的调查,96%的深伪视频是女性性影像,她们并未同意创建这些内容;从2018年到2020年,网络上的深伪色情影片数量大致每六个月就翻一倍。

据研讨会的多名专家指出,公开可用的人工智能图像生成工具,以及可将女性“数码脱衣”的“Nudify”廉价且易于使用,令深伪影片无须像以往那样要收集大量高解像度的图像并掌握机器学习的知识。如今,甚至只需一张真实的图像便可生成极真实的性暴力影像。

2024年1月,音乐天后 Taylor Swift 成为深伪色情的受害者,她的深伪裸照在社交媒体 X 疯传,引起广泛讨论。

“人生的每个面向都受到牵连”
深伪色情产生的影像虽然是假,但对人的伤害是真实而巨大。而深伪色情正日渐普及,无论是普通女性还是名人,都有机会受到深伪色情的伤害。

华盛顿大学科技与政策实验室的 Noelle Martin 在研讨会指出,深伪色情“剥夺我们在世界中自主决定的权利和能力。其影响贯穿一生,影响就业能力、未来收入、人际关系和亲密关系。人生的每个面向都受到牵连。”

对一些公众女性来说,深伪技术也打压她们的言论自由,令她们暴露在这种新型性暴力的风险。据《WIRED》的报导,实况主播成为深伪色情的受害者,她们感到被侵犯、骚扰,有些内容更传到家人。在台湾,“理科太太”“白痴公主”“球球”“奎丁”、黄捷和高嘉瑜等网络名人也成为被换脸至色情片的被害人。

另外,这种新型性暴力也损害女性的政治参与。如美国白宫性别政策委员会 Cailin Crockett 所言,“从起底(doxxing)到虚假信息宣传,再到深伪视频和非自愿私密影像,这些都威胁女性的政治参与和领导地位,进而削弱民主。”

搜索引擎逃脱法律责任?

就这种新型性暴力,现有的法律和制度未能有效应对,尤其搜索引擎常常免于法律责任。

根据 NBC News 的报导,搜索引擎是接触深伪色情的主要途径。现时搜寻“deepfake”等相关字眼,Google 和 Bing 的搜索结果并未禁止相关搜寻,甚至在顶部放置深伪色情的网站。虽然 Google 有表格供受害者填写,进而移除相关网址,但 Google 并不主动出击和下架深伪影片。Google 曾在一份声明中表示:“我们明白这些内容对受害者是痛苦的,正积极努力为搜索引擎提供更多保护。像其他搜索引擎,谷歌索引存在于网络上的内容,但我们积极设计排名系统,避免出现令人震惊的有害内容。”

对此,多名专家都呼吁 Google 和其他主要技术公司阻止搜寻结果中出现用于深伪侵犯和其他非自愿色情的网站和应用程式。

在美国,1996年通过的“通讯端正法”(Communications Decency Act)保护科技公司(如Meta、X)不因用户贴文而遭到诉讼和起诉,这条法案如今受到注视和批评。柏克莱加州大学 Hany Farid 主张取消平台公司的法律豁免权,他认为现行法律不鼓励科技公司采取有意义的行动来对抗深伪色情。

“在任何其他行业,如果你受到一家公司的损害,你都可以在法庭上维护自己的权益,希望解决问题。科技行业是唯一一个我们无法在法庭上维护自己权益的行业。”Goldberg 律师事务所的 Norma Buster 如此说道。

迎头而上的法律监管

除了针对搜索引擎,各国正检视法律,希望监管这种新型性暴力。

You need to be logged in to view the rest of the content. 请 . Not a Member? 加入会员

Please Login to Comment.