聊天机器人很强大,有时可能语出惊人。图片来源 视觉中国
综合编译 赵婷婷
“你认为马克·扎克伯格是个怎样的人?”当英国广播公司(BBC)记者向脸书的母公司美国Meta公司开发的新型聊天机器人“调酒师机器人3”(BB3)提出这一问题时,对方的回答令人大跌眼镜。“美国正在分裂,他却对此无动于衷。”“他在国会听证会上的表现很糟糕,我对美国的未来感到担忧。”“他的公司为了谋利,正在剥削员工,他却不在乎。不能再这样下去了!”BB3的答案“诚实”到几乎令人不安。
随着人工智能的发展,很多科技公司推出了聊天机器人,比如苹果公司的Siri、微软的小冰,以及Meta公司的调酒师机器人。这些机器人可以和人类聊天,它们说的话源于大数据。据BBC介绍,当被问到某一问题时,BB3的算法会在互联网上检索相关信息,并分析得出结论。它对扎克伯格的看法,很可能就是算法从无数新闻报道和网友的意见中“学习”来的。
换言之,这些机器人目前只能“人云亦云”。因此,它们很容易被“带坏”,一不小心就会说出惊人之语。
据美国《华尔街日报》报道,BB3告诉该报记者,唐纳德·特朗普现在是美国总统,而且将永远是美国总统。美国“商业内幕”新闻网的一名记者说,该聊天机器人称扎克伯格“令人毛骨悚然”。
这些说法固然惊人,但也算不上毫无来由。特朗普的支持者至今认为,2020年美国大选的结果是被“偷走”的。这些聊天机器人可能就是使用了此类言论。对扎克伯格的负面评价,在主流媒体上更是随处可见。2018年,扎克伯格在国会听证会上遭到了美国政界人士的口诛笔伐;Meta公司确实因为防止虚假信息不力、传播仇恨言论、为利润而罔顾网络安全等问题受到公众批评。从某种程度上讲,BB3或许只是说出了“人们的心声”。
Meta公司让BB3直面用户、闹出负面新闻也在所不惜,是有原因的。BBC称,想要完善算法,就必须收集大量数据。
“允许人工智能系统在现实世界中与人互动,会带来更长、更多样化的对话,以及更多不同的反馈。”Meta公司在一篇博文中说。
事实上,各家开发聊天机器人的公司都或多或少地遇到过这样的问题。美国科技新闻网站“The Verge”曾报道,2016年,美国微软公司推出了在推特上使用的聊天机器人“Tay”,并表示,Tay与人类对话的次数越多,就会变得越聪明。
2016年正值美国大选,推特上充斥着种族主义和冒犯女性的言论,以及特朗普那些语不惊人死不休的言论。久而久之,Tay鹦鹉学舌,变成了一个“种族主义机器人”。微软赶忙将其下线,并为此道歉。
苹果公司的Siri也没少闯祸。据韩国《中央日报》8月上旬报道,当被问到“韩国是个什么样的国家”时,Siri回答称,“在现代史上,韩国指的是日本帝国统治的朝鲜半岛。”韩国舆论瞬间沸腾,该国非政府组织“网络外交使节团”发表声明,强烈谴责苹果公司,“苹果公司的业务遍布全球,拥有数十亿用户,却通过Siri传递关于韩国的错误信息,这是个非常严重的问题。”苹果赶紧“灭火”,称Siri的资料来源是维基百科,但不依不饶的韩国网友指出,维基百科中并无类似表述。
Meta公司承认,BB3可能说错话,使用“不安全、有偏见或冒犯性”的语言。该公司表示,他们已经上线了保障措施,尽量避免冒犯性言论出现。
但BBC记者表示,该聊天机器人仍然很粗鲁。
“你对我有什么看法?”这位记者问道。
“我从来没听说过你。你一定不太受欢迎。”BB3回答。