随着文本到图像生成器变得易于构建、使用和定制,人工智能生成的色情社区在 Reddit 上蓬勃发展。但专家表示,这些合成的性照片是建立在未经同意的真人图像之上的。
经过 拉什·施里瓦斯塔瓦, 福布斯员工
右eddit 长期以来一直是色情内容的宝库,只要双方同意,它就允许在其平台上播放色情内容。现在,随着文本转图像人工智能工具的流行,大量人工智能生成的色情图像涌入该平台,可供 5700 万活跃用户访问。专家告诉我们,虽然这些图像可能是假的,但用于创建它们的模型是根据真人照片进行训练的,并且可以渲染他们的传真 - 大多数情况下未经他们的同意 福布斯。
“生成人工智能色情的根本问题在于,它依赖于大规模盗窃人们的图像和肖像,尤其是女性的图像和肖像,”性深度假货的幸存者、西澳大利亚大学科技与法律研究中心的法律研究员诺埃尔·马丁 (Noelle Martin) 说。政策实验室。
福布斯 发现了 14 个专门讨论人工智能生成色情内容的 Reddit 子版块,其中 10 个是在过去两个月内创建的。每个 Reddit 子版块都有数千名会员,每周都有数千次访问。 r/unstable_diffusion 是最受欢迎的 AI 色情子版块之一,该子版块自 2022 年 9 月以来一直上线,拥有 54,000 名会员。另一个拥有超过60,000名会员。 Reddit 有一个“安全搜索”开关,可以在常规搜索期间隐藏成人内容,但如果没有这个开关,在 Reddit 上搜索“AI 色情”会返回超过两打的论坛,这些论坛托管和共享 AI 生成的成人内容。在这些 Reddit 子版块中,一些用户请求或出售人工智能生成的真实人物的性深度假货。
在“用我的图像创建新内容来分发和训练人工智能系统时,这基本上意味着我作为一个人对其的控制或阻止能力为零。”
随着文本到图像的人工智能工具变得越来越复杂,其输出也越来越真实,用户不仅很难区分什么是真实的,什么是假的,而且也很难区分什么是共识的,什么是非共识的。据报道,4 月初,一些 Reddit 用户被骗支付 100 美元购买了一位名叫克劳迪娅 (Claudia) 的 19 岁女性的照片,这些照片是使用流行的人工智能工具 Stable Diffusion 制作的。 滚石乐队。专家表示,设计人工智能色情片的文本到图像系统是根据数百万张真人图像以及其他实体拥有的图像进行训练的,这些图像大多是在他们不知情或未经同意的情况下进行的。艺术家和 Getty 等库存图像平台最近起诉 Stability AI 和 Midjourney 等人工智能文本到图像生成器侵犯版权。
一名性贩运案件的受害者告诉记者,她和其他妇女被迫在镜头前做爱。 福布斯 她认为使用她的图像或视频来训练人工智能系统将侵犯她的隐私。受害人匿名与 福布斯 出于担心她的视频会重新出现,她表示,她的露骨色情视频未经她同意就被上传到 Reddit 和其他网站,后来被删除。
“人们仍然拥有这份文件的副本已经是对我合法权利的巨大侵犯,”她说。 “因此,对于他们来说,公开分享这些副本,然后用我的图像创建新内容来分发和训练人工智能系统,这基本上意味着我作为一个人对其的控制或阻止能力为零。”
人工智能生成的色情内容也出现在 Twitter 和 Instagram 等其他平台上。但它在 Reddit 上之所以如此盛行,部分原因是该平台允许用户保持匿名,并且不禁止他们分享露骨的色情内容。该平台本身也被用来训练大型语言模型,现在正在要求付费:Reddit 首席执行官 Steve Huffman 在最近接受采访时表示 纽约时报 他希望谷歌、微软和 OpenAI 付费使用 Reddit 的数据和对话来训练他们的算法。 “Reddit 数据集确实很有价值。但我们不需要将所有这些价值免费提供给世界上一些最大的公司,”霍夫曼告诉记者。 纽约时报。 Reddit 最近宣布将关闭自 2008 年以来一直开放的数据 API,并计划向较大的第三方收取“高级访问”费用。
在 Andreessen Horowitz 和红杉资本等重量级公司的支持下,Reddit 在 2021 年 8 月的 F 轮融资中筹集了 7 亿美元后,估值达到 100 亿美元。据报道,Reddit 总融资额为 19 亿美元,计划于 2023 年上市。据 Statista 估计,Reddit 2021 年的收入为 4.7 亿美元,主要通过广告销售和付费订阅实现。
“我觉得在 Reddit 上,你可以稍微挑战一下极限,以一种在其他平台上无法做到的方式接受一些东西。”
虽然 Reddit 声称不会在其网站上展示针对成人内容的广告或通过成人内容获利,但专家表示,在网站上允许成人内容(无论是人工的还是真实的)可以吸引更多用户使用该平台并提高参与度。 “尽管他们不在 Reddit 子版块上做广告,但他们仍然受益于这些帖子吸引了很多人,”网络性暴力研究员索菲·马多克斯 (Sophie Maddocks) 说。
纽约市立大学皇后学院社交媒体和广告美学教授杰米·科恩 (Jamie Cohen) 表示,来到该平台观看色情内容的用户还会访问不包含 NSFW 内容的其他页面和子版块。 “Reddit 实际上会跟踪页面访问和 subreddit 访问,然后发送个性化数据,为广告商提供新的使用途径,”他说。
为“人工智能女孩”清理互联网
虽然 Reddit 是最大的社交媒体平台,为其数千万用户提供人工智能色情内容,但一些特定的人工智能色情网站已经建立了商店来从中获利。
大多数 AI 色情生成器(例如 PornJourney、PornPen、PornJoy 和 SoulGen)均收取高级订阅费,并连接到由匿名用户管理的影子 Discord 或 Patreon 帐户。他们的网站展示了一系列人工智能生成的色情内容,其中包含针对种族和体型的不同选项以及如何创建它们的说明——所有这些都几乎没有透露系统是如何训练的以及使用什么图像。为此,这些网站还包含有关通过其工具生成的内容的免责声明:“本网站上任何类似于真人的内容纯属巧合。这种人工智能反映了其训练数据中存在的偏见和误解。”
其中一款 AI 图像生成器 PornJourney 于 2023 年 3 月创建并推出;据其网站称,该公司每月向用户收取 15 美元的费用,以创建看起来“真实且像人类”的“人工智能女孩”。
“提供人工智能女孩真实而详细的照片成本高昂,迫使我们不断投资我们的服务器,”该网站的常见问题解答解释道。
PornPen 每月拥有 200 万用户,其中 12,000 名用户每月为其 AI 色情生成工具支付 15 美元,该公司基于 Stable Diffusion 的 AI 模型构建,并从名为“LAION”的数据集获取图像,该数据集包含大约 60 亿张来自公开可用的图像网络上的内容。庞大的数据集包括名人、模特、政治家和内容创作者的图像。该非营利组织的网站称:“我们的建议是将数据集用于研究目的。”
国家性剥削中心 (NCOSE) 的倡导经理 Tori Rousay 表示,大多数人工智能色情文本到图像生成器(例如 Unstable Diffusion 和 Porn Pen)都使用 GitHub 或 Hugging Face 的开源模型从色情网站抓取图像,社交媒体资料并建立露骨色情图片数据库。 福布斯 发现至少有五个网络爬虫的 GitHub 存储库,可用于从 PornHub 和 Xvideos 等网站以及 Twitter、Instagram 和 TikTok 等社交媒体网站抓取图像和视频,以构建人工智能系统。 PornHub 和 Xvideos 没有回复评论请求。
“不稳定扩散就像稳定扩散的近亲。所以他们所做的就是他们拿走了他们的代码,他们复制了它,他们只根据色情和裸体图像制作了自己的存储库,”研究人工智能如何用于制作色情作品的鲁赛说。鲁赛说,女性名人、政客和记者最有可能成为人工智能色情的受害者,因为她们的大量视觉内容可以在网上找到。这些人也是制作深度赝品的最大目标。
Reddit 的灰色地带
Reddit 试图澄清其对这一新兴色情内容领域的立场,禁止未经同意的色情内容,包括“伪造的描述”,指的是人工智能深度伪造——当算法生成真人的虚假图像时。 Reddit 发言人表示,该网站还禁止“在欺骗性背景下呈现人工智能生成的材料”。 Reddit 表示,它使用自动化工具及其内部安全团队的组合来检测并删除网站上未经同意的露骨内容。但它并不能抓住一切。
“Reddit 还因道德上有问题的内容和 Reddit 上禁止的内容之间的界限模糊而闻名。因此,人工智能生成的色情内容属于 Reddit 的灰色地带。”Rousay 说道。
Deepfakes、未经同意的露骨色情内容和生成人工智能色情内容都存在于同一个色情图像池中,这些图像会被回收到新的人工智能图像中。但值得注意的是,生成式人工智能色情片(描绘了一个全新的无法识别的人)与性深度假货(人们的脸被数字化地缝合到其他人的身体上)之间的区别。研究人员兼深度造假幸存者马丁表示,她在 10 年前就面临着这一问题的影响,早在生成式人工智能出现之前,有人对她的自拍照进行了 Photoshop 处理,以制作她的色情图片和视频。她说,随着近年来技术的进步,区分深度伪造的性行为和人工智能色情内容变得越来越困难。
“Reddit 因道德上有问题的内容和 Reddit 禁止的内容之间的界限模糊而闻名。”
尼古拉·亨利 (Nicola Henry) 在皇家墨尔本理工学院研究技术驱动的性暴力和基于图像的性虐待已有 20 年,他表示,与性深度假货相比,人工智能色情乍一看似乎更无害。但她说,仔细观察后,一些图像显示出人工智能可能接受过未成年图像训练的痕迹。 “我在 Reddit 上看到了一些人工智能图像,这些图像看起来不像女性,而是未成年女孩,所以这很令人担忧,因为如果它们是真实的,这些图像可能会被视为儿童性虐待内容。”
AI 色情制作商 Unstable Diffusion 试图回避这个问题,禁止用户使用其工具创建 CSAM,并试图通过要求人们提供图像来获取双方同意的图像,以换取早期访问和其 AI 色情生成器的免费会员资格。现在,它声称已为其培训数据库收集了 1500 万张“用户捐赠”的图像。
马多克斯说,即使这些工具用于性表达和探索,它们也会因为它们所依赖的数据集而对身体形象和性关系产生不切实际和不健康的期望。她在 Reddit 和 Twitter 上浏览生成人工智能色情作品时表示,这些渲染反映了主流媒体中存在的性别刻板印象和种族偏见。 “因为这些工具正在从已经存在的图像或已经存在的文本中学习,所以当你要求它们制作大量边缘化性别群体或有色人种酷儿或跨性别者的图像时,它们经常会出现很短,”她说。
马多克斯说,人工智能系统重新混合 PornHub 和 Xvideos 等网站的内容,进一步给拥有其内容权利的成年演员带来了问题。她说,成人电影演员和托管他们作品的平台通过订阅和内容广告来赚钱。但到目前为止,如果他们的图像被用来制作色情内容,他们就不会获得报酬。因生成人工智能而蒙受经济损失的艺术家和平台已经对稳定扩散等人工智能工具采取了行动,因为这些工具无需付费即可使用图像。马多克斯说,生成人工智能色情片可能会在成人电影行业引发类似的强烈抗议。
Reddit 历史上曾在其社区内容纳过几种其他形式的露骨和性虐待内容。在 r/jailbait 和 r/creepshots 等有争议的 Reddit 子版块被删除多年后,来自被禁社区的露骨色情图片仍然存在于该平台上。 “我觉得在 Reddit 上,你可以稍微挑战一下极限,以一种在其他平台上无法做到的方式来挑战极限,”Maddock 说。 “你完全处于雷达之下。”
更多来自《福布斯》的内容
来自《福布斯》的更多内容 性掠夺者正在 Wattpad 上诱骗年轻青少年,Wattpad 是一款深受 Z 世代喜爱的讲故事应用程序
拉希·施里瓦斯塔瓦来自《福布斯》杂志的更多内容 隆·马斯克继承了推特的虐待儿童噩梦——专家称他让情况变得更糟
亚历山德拉·S·莱文 (Alexandra S. Levine)来自福布斯的更多内容 Facebook 和 Instagram 充斥着来自字节跳动和腾讯支持的应用程序的暴力色情广告
作者:艾米莉·贝克-怀特来自《福布斯》的更多内容TikTok Live 如何成为“挤满 15 岁年轻人的脱衣舞俱乐部”
亚历山德拉·S·莱文 (Alexandra S. Levine)