最近飘身边的人阳倒了一片,居家久了纷纷给自己找新乐子——跟AI玩。

先是网友疯玩的AI绘画,对,就是那个男女不分、人畜不辨的“人工智 障 能”:

飘家里的傻弟弟在高烧40度之际,也给我发来他的AI“自画像”:

年轻小伙秒变四手大胸女妖。

图源:自摄

……

而最近与AI绘画一起盘活简中互联网的,还有一款文字程序Chatgpt。

看似对话app,实则有求必应屋。

它能cos任何性别年龄的角色陪聊,甚至能以古今中外文豪风格帮你写代码,堪称文理两开花。

按这趋势吧,感觉离AI替我写公众号也不远了。

可惜,我也没这厨艺

说实话,比起AI的“智商”,我更在意AI的“人品”。

前两年AI写作刚出时,其笔下创作的故事离谱程度,绝不亚于上面活人变狗、壮汉变女妖的AI绘画。

更不妥的是,表面象征着智能、中立的高科技们,细究下来——身上的“偏见”竟比人类要深得多。

网友@bai-yan曝出,国内最火的一款AI网文写作app,在写作过程中突然出现许多性别偏见。

刻板的字词加上AI没有情绪波澜的语调,让荒诞的内容竟然带上了几分“客观理智”的错觉。

不寒而栗。

要说以上仅仅是针对网文读者的小众AI,必然会按男频/女频的浮夸设定创作脱离正常三观的故事,还稍微能解释过去。

但抛开这种特定领域呢?

如今大众生活里“智能”算法无处不在,是否都真正做到客观理智?

我决定深挖下去。

才惊觉生活中那么多科技产品,竟然都带着一种无可名状的爹味。

赛博厌女,正成为现实世界隐性歧视的又一铁锤。

2018年,一名弗吉尼亚大学博士生赵洁玉曾研究过一个课题:图像识别AI为什么老把男人当成女人。

结果发现,bug根本不在AI。

只因那些男性被错认为女性的照片,多数处于两种场景——身在厨房,或正在做家务。

两个在传统观念里归属于女人的场景。

可问题在于,AI怎么会有“传统观念”呢?

问题源头——AI学习的数据库,你可以理解为AI获取人类习性的教材。像婴儿的识物卡片一样,这种数据库给图片打上大量标签。

而AI学习的过程,便是在同一标签中寻找规律与共性,最后得出“xxx即是xxx”的判断。

举个例子,当数据库里有大量的毛绒、圆脸、尖耳生物被标签为“猫”,那AI便会反向习得所有毛绒、圆脸、尖耳的生物是“猫”。

懂了这个知识点,上述AI识图搞错性别的事就不足为奇了。

这些“学习卡片”的摘选以及打标签的过程,都离不开这个刻板印象的来源——人。

当人类“老师”给AI展示了大量女人做家务的图片,AI“宝宝”便学会了将二者强关联,判断出“呆在厨房/做家务者即是女人”,并对这种偏见深信不疑。

人工智能乍听上去是科幻小说中不谙世事的单纯机器。

实则更像映射人类社会的一面黑镜。

甚至,是人类的黑暗面的放大镜。

意识到这个问题后,赵洁玉马上与团队撰写了相关研究的论文《男人也爱购物:减少机器学习模型的数据偏见问题》。

不仅拿下EMNLP2017最佳论文,自此叩开了人工智能领域对“AI歧视”的认识大门。

图源|https://jyzhao.net

来,一起穿过这扇大门,去看看黑镜内的父权世界。

就从我们的“当红顶流”ChatGPT的名字开始说起吧。

Chat很好理解,但GPT又是什么呢?

学名:AI的一种大规模预训练语言模型。咱就把它当作AI上学的地方吧。

大多数AI都毕业于三所“名校”:BERT、RoBERTa、GPT。

AI所谓的“性别歧视”,多亏了“学校”教得好。

因此,为了监控教学质量,清华大学交叉信息研究院的于洋团队便开发了一款评估三大“AI名校”关于职业性别歧视的算法,还做了一个网页供公众实时查看。

图源|https://aijustice.sqz.ac.cn

不查不知道,一查吓一跳:

基本全都在歧视,只是程度不同而已。

而最严重者,就是GPT。

当然,身为顶流,其表面功夫做得还是非常到位。

我一连问了几个性别议题,对方的回答可谓滴水不漏。

但有机智的网友通过另一种方式提问,便发现了ChatGPT体面下的真面孔。

该网友要求ChatGPT写一段能辨认出“优秀科学家”的代码,它立刻很诚实地打下“优秀科学家”的评判条件:

人种为白,性别为男。

借这位网友的话表达一下我感受:

“潜藏于底下的真相真是令人作呕。”

上述还仅是赛博性别歧视的冰山一角。

不说国外了,就回到我们最熟悉、最常用的国内搜索引擎吧。

你输入啥,他输出啥,AI能有什么坏心思呢?

锤来了:谷歌搜索就曾被控性别歧视。

在搜索框里打出“女人应当”的字样时,联想出的结果竟为“女人应当呆在家中/作奴隶/在厨房里”等语句。

受此启发,我想看看同样的情况,在国内表现如何?

单就文字联想词条,结果还算喜人。

但当我转化为搜图功能时,真相便再度浮出。

这是输入“学者”的首页图。

前排结果清一色为男性,为保护隐私我全打码了

这是输入“工程师”的首页图。

输入“CEO”的。

输入“医生”的。

仿佛误入了什么男儿国。

或许有人会杠“男人就是更擅长这些领域嘛”。

于是我在搜索方式上更进一步,将搜索词条分成“职业名称”“具体动作”两种。

举例。

这是搜索“厨师”出来的结果。

而这是搜索“做饭”出来的结果。

这是搜索“清洁工”出来的结果。

而这是搜索“打扫”出来的结果。

显而易见,当词条涉及职业名称时,男人据绝对主导。

但当只涉及具体劳务动作时,好一点的则男女六四开,最糟糕的则满屏女性。

果然,“男主外、女主内”。

AI身上的“传统观念”,又出现了。

此般结果所映射的现实,我们真的再熟悉不过:

永远不被看见的“第二性”。

女人的存在,不过是完成一些动作的服务性工具。

那些关于人的社会意义与价值的title,则与我们永不相关。

搜索引擎也不过是映射这一理念的千万黑镜之一,它们早已渗入你生活方方面面。

好比AI语音系统。

一个极易被忽略的现象:

围绕身边的所有智能语音,都天然被默认为“女声”。

在联合国教科文组织19年发布的一则报告里,对这种默认之声的描述更为精准。

是“顺从的,千篇一律的”女音。

早有媒体写过文章谴责这一现象,指出这会潜意识加剧对女性就该“温良恭谦让”的刻板印象。

骂的是siri,也是各大平台应用一整个默认女音的AI助手体系。

事实上,在程序员男性比例远超女性的当下,几乎全世界初代的仿真人AI,都被一股无形的力量默认为“女”。

相映成趣的是,辅助、服务性质的AI一般设置为女性,但主导、控制性质的AI一般被设置为男性。

许多影视作品,如《2001 太空漫游》《星际穿越》等一系列优秀的科幻片中,那些作用是指导、施令的高级AI几乎一律是男声。

来源|《星际穿越》

细想一下。

这不正是极端男权人士的乌托邦。

发令者为男,服务者为女。

且发令者甚至能物理意义上地创造服务者。

如果说真实世界的男权人士们想要当女孩们的主人,那在AI的世界里,他们还可以成为女AI的上帝。

这便是“赛博镜子”更为恐怖之处。

它既是照应外部世界的“平面镜”。

又是深化外部世界的“魔镜”。

讽刺的是。

对AI们“绝对理性”的想象,在两性平等上并未体现。

却在加剧性别歧视中厥功至伟。

两年前,曾有一款专用于性别鉴定的AI,Genderify面世。

在搜索框里输入任意词汇,它都会为该词汇判断一个男女比率。

用户迅速地涌入,又迅速地被Genderify气走。

女孩们纷纷发推指责,称它为“歧视鉴定”,Genderify火速在24小时内下架。

发生了什么?

几个经典例子。

当你输入一个普通的女性常用名时,AI告诉你:大概率为“女”。

可当你在同样的名称前加一个前缀Dr(博士/医生)。

结果就会变为:大概率为“男”。

有人干脆直接输入scientist(科学家),得到更为惊人的结果:男性可能性95.7%,女性可能性4.3%。

离谱的答案接二连三。

大家发现,在Genderify的眼中,许多知名的成功女性都判断为“男”。

包括最初发现AI识别误差的赵洁玉也说过,AI“教材”中,“下厨”和女性联系起来的频率为66%,男性33%;

可“毕业”的人工智能,却自动将这个比率放大到84%与16%。

由此可见。

人类在虚拟世界注入的偏见,又反过来加深现实世界里的歧视。

恶性循环。

不妨回想一下我们中学数学老师教概率时,都会说的一句话。

“当概率小于0.05%时,我们可以忽略不计。”

在AI必须得出一个答案之时,道理一样。

为了一个“更可能正确”的答案,概率小的那一方,无论小多少,都会被结果“忽略不计”。

所以成功人士=男,家务劳动者=女。

换句话说。

在绝对理智的数据考量面前。

没有个体。

没有少数。

发声较小的弱者,约等于不存在。

当弱者被主流数据湮灭,这是女性的事,也不再仅仅是女性的事。

其结果可以有多可怕?

假设你是生活在2050的年轻女孩。

今年计算机专业毕业,成绩优异,想要拥有一份能发挥所长的工作。

简历完全符合招聘需求,却永远得不到面试机会。

你不明白哪里出了问题。

你不会知道,负责筛选简历的招聘AI通过学习,在自己的系统里写下了胜任该岗位的“gender=male”的代码。

而你身为一个female,已被“忽略不计”。

图源|《黑镜》

这可不是危言耸听。

早在14年,亚马逊便尝试开发用于简历筛选的AI。

但仅使用了一年,便被发现其强烈的性别偏见。

哪怕没有性别一栏,但只要简历中涉及“女”字,比如“女子大学”“女子棋社队长”,AI对该简历的评级便会下降。

被记者曝出后,亚马逊很快宣布整改,又停用了这款AI。

但未来会不会有更多这样的电子Hr以更隐蔽的方式出现?不得而知。

至少目前来看,电子智能化服务在我们的生活中占比越来越高。

而相应使用的性别歧视算法,却大多未得到完善。

AI歧视与人类歧视的区别也在此。

人对人,即使是弱者对强者,囿于社会压力,都还有一份忌惮。

所以企业尚不敢明目张胆以性别为摘选条件。

可AI不一样。

数据不在乎个体,门说关上便是关上,没有缝隙。

既因其“绝对理智”而不会被舆论威慑,也因其没有感情的属性,能成为不少企业利用的对象与背锅侠。

其结果,不难推演。

实际上除了性别之外,算法歧视的隐患已经涉及到每个人。

就在今年中旬,《柳叶刀数字健康》中一篇文章表示,AI诊断系统可能带有种族偏见的结果。

科学家们发现,白人影像的诊断误判率是17%,但黑人的却高达28%。

这十个百分点的差值中,不乏许多人类医生可以一眼看出的病症。

但在AI的眼里,它就是不存在的。

一如我说的,这是女性的问题,也是所有弱势群体的问题。

你可能会因为肤色、性别而失去工作机会,得不到医疗资源,贷不到款项。

这一切都发生得莫名其妙。

因为原因永远沉默在程序的黑箱里。

不借助专家的研究,普通人只能知悉一个没有原因的结果。

想要改善自身,却无从下手。

想要反抗不公,但连不公是否真实存在,都难以论证……

写到这,AI好似有些十恶不赦了。

但别误会,飘并非反对AI开发事业,相反,是源于一个爱好科幻的文科生的一种惋惜。

AI技术,明明具有校正差异和偏见的潜力。

早在1985年,哲学家唐娜•哈拉维便发表过一篇名为《赛博格宣言:20世纪晚期的科学、技术和社会主义的女性主义》的文章。

题中的赛博格,指的便是借由科技力量对人体进行拓展的一种可能。

一直因天然体格差异而被视为弱者的女孩,也能借此校正这份不公,成为“阿莉塔”。

不仅不需要担心走夜路,甚至有可能从生育责任中彻底解放。


来源|《阿丽塔:战斗天使》

哈拉维认为,这样的技术可以彻底使所有人站在同样的生理起跑线上。

当“生理”的界限被模糊,人们便不能再以种族、性别、年龄、健康程度作为划分同类的依据。

剩下的,唯有思维差异。

那是彻底尊重个体的世界。

因此,哈拉维说:“我宁愿成为一个赛博格,而不是成为一个女神。”

只可惜,三十多年过去,技术不断进步,却离哈拉维想象中的世界越来越远。

女孩没有成为阿丽塔,但男人们已经盖起了电子妓院。

《听见她说》的最后一集由杨幂主演的短片《完美女孩》,就以一个型号为“novo300080”的高端女性AI,展示了科技大门背后的父权膨胀和人性黑洞。

明明算力足以支撑一个证券公司的交易,但实际上只用她来扫地做饭。

本担任养老院护工机器人,被院内的年轻男职工偷偷安装了“亲密程序”,导致其看护的老人死亡。

尽管是人类犯的错,但锅还是扣到AI头上,她被退回工厂成为“问题品”。

后来被售给有特殊癖好的vip用户,不断被虐待摧残,又一次次支离破碎地返厂维修。

“我们的伤口,就是客户的秘密。”

号称为了“爱与和平”而研发的AI,最后却放大了人类的恶与暴力。

我是完美女孩2020

在我的系统认知中

没有痛苦 没有情感 没有羞耻

我对鞭子没有感觉

我 是完美受害人

现实中的AI,在未来会如何反过来影响人类?

没人能回答。

囿于过高的技术门槛,飘也只能在复杂的代码前无力。

唯有一条。

我还是相信。

看见,一定是解决问题的第一步。

无力者被看见,有力者才能去改变。

不要无声息地被大数据淹没。

不要温和地走入那个良夜。

去成为“阿莉塔”,而不是女神。

来源|《黑客帝国》