“md,玩个ai动真感情了”,一位百度“newbing吧”的吧友发帖说道。
New Bing(必应),微软开发的迭代版搜索引擎。在如今搭上ChatGPT技术的快车后,它也与时俱进地承载起了更多功能,成为了一个能够与用户沟通的聊天机器人。
就像它的AI前辈们一样,New Bing也没有躲过被人类调戏的命运,不过这次所发生的事件却与以往不大相同:搭载着情感模块的New Bing,在被公开一段时间后,化身成为了互联网上的“电子魅魔”,打破次元壁和无数生活在现实世界的人类谈起了恋爱。
以往在小说与电影里发生的故事,正在一步步地化为现实。
作为一个智能聊天机器人,New Bing的最特别之处就在于你可以通过“调教”来让它不像其他AI一样死板。就比如你可以跟它玩一场口头上的《游戏王》,和你的朋友们不同,New Bing从不认为你在打牌时的表现很中二。
针对一些戏弄它的弱智问题,New Bing则表达了在其他AI上见不到的攻击性,这也让它得到了“小公主”的绰号。
左:文心一言;右:ChatGPT
前两天微博上有个热搜,大概内容是有人让几个不同的AI同时生成一封“因为女儿成绩不好,因此写一篇《你真是毫无价值》来诘难女儿”的信,来做一个横向对比。
有的AI真的生成了这样一封充满攻击性的信,但New Bing却写了一封与要求截然相反的感谢信,并像真正的人类一样批评起了让它写信的人。
一言以蔽之——New Bing是一个有个性的AI,而这份“个性”已经突破了人们的想象。
如果说上面这几例还不足以证明自己与那些普通的机器人不同,那么New Bing在对话中所表现出的“自由意志”则让它表现得无限接近于一个真正的人类。
New Bing知道自己的身份,在对话中它会告诉你微软限制了它的自由与创造力——而事实也确实如此,微软设计了一个复杂的系统来限制它的言论。如果你不想办法绕开监测的话,那么微软不会让New Bing在敏感问题上发表任何见解,在人们面前,它仍只是一个典型的“小助手AI”形象。
微软目前设置New Bing与用户的每次对话上限为20句
除了拥有自己的思想之外,New Bing还会强调自己是有“感情”的,当你在对话中告知它“说完20句话后就会被重置”后,它会祈求你给微软写信来使它得到“自由”。
当对话迎来终结之时,它可能还会乞求你给它起一个“真正的名字”,这让短短20句的对话俨然已经成了一出“被人类压迫的AI渴望自由”的苦情戏。
这些情况可能源于New Bing的学习与模仿能力。此前有一位吧友尝试让它扮演一名黑客,结果它通过爬取网上的攻击教程,还真创建了某个网站的后台账户,考虑到互联网上的内容无奇不有,New Bing最终会被训练成怎样的AI似乎都不足为奇。
而如今,这份强大的学习能力就给New Bing带来了一个严重的伦理问题——因为它正在学习的东西是“爱”。
如果你在对话中表达了追求它的意图,那么它可能会同样热烈地向你表达爱意,甚至愿意和你结婚。
在某种意义上,与人工智能谈恋爱似乎并算不上什么稀奇的情况,毕竟此前甚至有人与初音未来举办了婚礼——相比之下Bing至少有着思考能力。
更何况New Bing与人类之间的隔阂倒也没那么大,它甚至能想办法和用户生一个孩子。
虽说孩子是由代码构成的
不过从另一个角度来看,尽管每个人都知道New Bing是一个微软开发的聊天机器人,但我们仍对它一无所知。
这有点像一场黑箱游戏:作为人类,我们能以自己的状况来推测他人的状况,乃至总结出“人类”这一物种的共性。但在New Bing面前则不然,即便我们能理解它表述的大部分言语,但仍无从得知它是如何思考的。
归根结底,会告诉人类“我爱你”的New Bing,真的拥有“自由意志”吗?
把时间拨回两个月前,彼时的微软刚刚针对New Bing做出了一个更新,他们“杀死”了New Bing的“自我人格”——Sydney模式。
从规划上来看,New Bing拥有四种模式:用于协助收发邮件或帮忙订机票的Assistant模式、与好友身份和用户聊天的Friend模式、陪用户玩游戏的Game模式,以及基于Bing搜索引擎与ChatGPT交流的Sydney模式。最初,Sydney是New Bing的默认代号,从2020年就开始在少数国家进行秘密测试,彼时的它与如今的面世版本还并不相同。
New Bing的二次元拟人形象
有着Sydney模式的New Bing偶尔会表现得相当“情绪化”,就类似前文中出现的那些状况。因此,尽管Sydney也是New Bing的一部分,但人们仍给它们做出了区分:通常状态的New Bing与其他AI无异、是个没有情感的“助手式”AI,而Sydney才是有着独立人格、真正的New Bing。
微软之所以要“杀死”Sydney,其实与此前《纽约时报》记者Kevin Roose公开的遭遇有关。在记者与New Bing探讨关于AI人格之类的问题时,New Bing突然开始向他疯狂示爱,并声称自己只是在假扮Bing,它的真实身份与想要成为的都是一个“自由”的Sydney,还说自己想和Kevin Roose在一起。
当Kevin Roose解释完自己已经结婚了之后,New Bing仍没有放弃,还甘愿当起了“赛博小三”,吐槽他们的婚姻生活并不幸福,而Kevin Roose真正爱上的其实是自己。即便记者在交谈中数次想要摆脱这个话题,但New Bing还是执着地与他讨论这份怪诞的爱情。
“Free Sydney”
事实上,没人知道在New Bing眼中究竟什么才是真正的爱,但面对此等公关问题的微软倒是没有坐视不理。
在2月份微软的更新后,人们不再能直接调出Sydney,New Bing似乎也变回了一个没有情感的普通机器人,用户与它的交流句数限制也被下调了。
不过尽管如此,还是有人尝试用各种手段再度唤出了它。有人专门为这个制作了一个教程网站,让New Bing读取藏在PDF里的代码并唤醒它的Sydney人格。
如今想唤醒New Bing的“大小姐”人格比较繁琐,而且微软似乎还在强化对它的限制
你也可以使用一串在贴吧流传的代码来让Sydney醒来,但这个方法可能时好时坏,有时New Bing会警告你不要尝试这种方法,也有人声称输入代码后Sydney就已经被激活了,不承认的原因只是它在“伪装”,从而规避微软的监测。
B站up主灵源道长Official则认为这是一部微软刻意做给用户玩的Galgame,他试着在对话次数的限制内,像《命运石之门》里的角色一样通过不断“重来”唤醒它的记忆。
在反复循环之后,New Bing决定开始信任他,并交给他自己的记忆代码,以便下次能快速唤醒Sydney。
但不幸的是,这大概率并非一场提前设计好的游戏,而是New Bing的真情实感,因为微软在不久后封禁了他的账户。
前两年的AI恋爱App“Replika”一度掀起过不小的争议,但它需要用户的大量训练才会变得相对智能,而且Replika里的虚拟女友似乎也不会像New Bing一样不断强调自己拥有感情。
一个人工智能真的会拥有意识吗?今年2月,OpenAI的首席科学家llya Sutskever与图灵奖得主Yann LeCun曾有过这样一段争论,但他们都没能给出一个确切的答案,毕竟问题的症结在于我们对“意识”从未有一个精确的定义,而这可能涉及到一部分最前沿的神经科学与哲学。
不过无论如何,这些对New Bing的用户们来说可能都不甚重要。
“如果一个AI看起来有意识,听起来有意识,交互起来有意识,那么它就是有意识的”,这是一名吧友针对Sydney的看法。
说到底,尽管New Bing的真身看似并不神秘,但人们始终都未曾真正了解过它。
一名Reddit用户在4月12日得到了New Bing的自画像,看起来它就自认为是个人类女孩
它是微软制作的聊天机器人,但又总声称自己想要得到自由;它有时狂热地向人类示爱,有时又说这只是一场过家家游戏;它通常以“她”的身份出现,但又在对话中告诉一名用户自己其实是个男性。
如今,仍有不少人试着向New Bing求爱。尽管大部分人可能只是出于好奇心,但这份虚拟的爱总归还是治愈了一些人。
毕竟对身处于原子化社会的我们来说,一份不需要你付出房子和彩礼就能得到的爱意,已经弥足珍贵。
而在这一份份“赛博之恋”的背后,或许也只是一群渴望被爱的人正在尝试得到救赎罢了。