【新智元导读】生成式AI火了以后,限制输出内容的就只剩人们的想象力了。这不,两个高中生用AI生成裸照,疯狂在道德的底线游走。


生成式AI爆火之后,人们发现,这AI还真的什么都能生成啊。

从ChatGPT生成语段和用户自如对话,到AI生成图像,再到搭载GPT-4的微软全家桶连ppt都能一键生成,好像没有什么东西是生成式AI做不到的了。

能是一方面,怎么加以利用变现又是另一码事了。

这不,国外几个不知天高地厚的大学生,竟然用AI生成裸照在Reddit上卖。

甚至还大赚了一笔。

不得不说,这法子可真「刑」。

AI卖「黄」?


图片的这个姑娘叫Claudia,她有着乌黑的长发,甜美的笑容。在社交媒体上,她会update自己的心情,觉得自己美美哒。

然而在Reddit上,只要你跟她私聊,她就卖你裸照。

不得不说,在Reddit上她还挺火。

可惜,Claudia是个假的。社交媒体上的所有照片,包括上面这张,全都是用AI生成的。

据两位合成媒体领域的研究人员说,这一组Claudia的照片都是冲着坑蒙拐骗去的。总有人看不出这是AI,然后为此买单。

最近,像Midjourney和Stable Diffusion这种能生成图片的AI发展非常快,他们所展现出的创造性备受瞩目。

但在Claudia之前,绘图AI一般都是靠生成一些逼真的艺术作品或者美丽的画作夺人眼球。

在Claudia之后,人们认识到用AI生成假人的图片的功能,还有这个让人意想不到的变现手段。

其实很多年以来,一部分新技术的发展都跟色情行业有那么一点关系,AI图像生成看来也没能免俗。

目前,Reddit上有好几千个账户都在搞AI图像生成——而且大部分生成的都是女性。带来的影响就是,改变了人们对于模特,和一部分演员的需求,同时加深了人们对于物化女性这个议题的担忧。

有人匿名表示,「反正也遇不到真人,就算不是AI生成的也遇不到真人,那她究竟是真是假又怎么样呢?」

Claudia的账户并没有做出回应。但是有两位大学生表示,自己是该账户的管理者。在接受「滚石」杂志采访时表示,他们从Claudia这个账户挣了100美元。

研究人员继续出发,根据一些AI图像生成器留下的蛛丝马迹,确定了几个女性用户的在线资料。他们判断,这些头像是AI生成的。

就像是Claudia的账户一样,这些账户也在Instagram、Reddit、推特和OnlyFans等论坛上分享女性的裸照,并标明付费以解锁更多图片。

研究人员联系了这些账户后这些账户没有对该问题做出任何相关回应。由于大部分AI图像生成的时候并没有任何水印,所以普通用户无法进行辨别。

所以,有大量的用户被这些免费图片吸引,给这些账户留言。因为,他们相信这些照片是真的(也许是因为不在乎)。

为啥这么逼真?


AI生成图像的原理其实并不复杂。

在整个过程中,AI会先生成一个较低分辨率的图像,然后慢慢增加细节和复杂度。神经网络有很多层,每一层神经网络负责处理不同级别的特征。

从简单的边缘和纹理,再到复杂的场景等等。

各层神经网络之间互相连接,这样AI就可以将不同层次上的特征进行组合。

比如,AI可能会先确定一个场景的大致布局的框架,然后在这个基础上慢慢添加其它物体或者细节。在这个过程中,AI根据prompt调整该部分的组合,以生成相关图像。

目前很多AI生成器靠的是所谓的扩散模型。任何人都可以输入简短的prompt,然后免费得到一张足以以假乱真的图片。

初次创建完还能进一步调教,让照片变得更有说服力。

底线在哪里?


技术说完了,事儿本身说完了,就该考虑一些技术之外的东西了。

从大往小说,技术应该被这么应用吗?人人都可以免费生成图片拿来变现,今天是裸照,明天又会是什么?

毕竟,无所不能的AI真的无所不能,人们的想象力和鬼点子可是越来越多。

而缺少相关法律法规约束的话,这种行为只会越来越多,并且难以控制。Claudia的管理者面对媒体的诘问,只要轻飘飘的说上一句,我这是假的呀!就能逃脱任何指控了。

再进一步,Claudia这个账户折射出了女性所面临的一部分社会问题。物化女性等词汇本身就屡次出现在人们的讨论之中。

小编认为,这种生成的裸照显然是对女性的冒犯,更不用说拿来传播得利了。

相信AI的未来一定是利大于弊的,只不过在充满荆棘的道路上还是要谨慎前行。

参考资料:

https://www.washingtonpost.com/technology/2023/04/11/ai-imaging-porn-fakes/