人工智能可能会产生情感的想法已经存在了几个世纪。但我们通常从人性的角度来考虑可能性。我们对人工智能情绪的看法是不是都错了?如果聊天机器人真的发展了这种能力,我们会注意到吗?

去年,一位一直在研究谷歌的聊天机器人LaMDA的工程师,发布了一个挑衅性的采访,而LaMDA在采访中声称意识到它自身的存在,它在体验人类的情感,不喜欢成为一个消耗性工具的想法。

联合国首席人工智能顾问尼尔·萨霍塔(Neil Sahota)表示:“(这种情况最终)很有可能发生。”“......我的意思是,我们可能会在本世纪末之前真正看到人工智能的情绪化。“


聊天机器人和自动补全的主要区别在于,像ChatGPT这样的算法不会建议几个选择词,然后陷入胡言乱语,而是会写更长的文本,几乎可以写任何你能想到的主题,从关于自大狂聊天机器人的说唱歌曲到关于孤独蜘蛛的悲伤俳句。

早在2017年,Facebook的工程师就发现,两个聊天机器人“爱丽丝”和“鲍勃”发明了自己的无厘头语言来进行交流。事实证明,这是一个完全无辜的解释--聊天机器人只是发现这是最有效的交流方式。鲍勃和爱丽丝在一些事务上接受了训练培训,比如帽子和球,然而,在没有人类的输入的情况下,他们很乐意使用自己的外星语言来交流。

然而,即使聊天机器人真的会产生情绪,检测它们也会出奇地困难。


那是2016年3月9日,在首尔四季酒店的六楼。在深蓝色的房间里,坐在棋盘和激烈的竞争对手对面,地球上最优秀的人类围棋选手之一正在与人工智能算法AlphaGo对抗。

在棋盘游戏开始之前,所有人都期待人类玩家会赢,直到第37步。但后来AlphaGo做了一件意想不到的事情--它下了一个让人不可思议的棋,对手认为这是一个错误。然而,从那一刻起,人类玩家的运气消失了,人工智能赢得了比赛。

围棋界感到困惑--AlphaGo的行为是否不理性?经过一天的分析,它的创造者--伦敦的DeepMind团队--终于发现了发生了什么。萨霍塔说:“事后看来,AlphaGo使用一点心理学方面的技巧并加以运用。”“如果我打了一个离墙式的移动,它会把我的球员从比赛中扔出去吗?”这就是最终发生的事情。“

这是一个典型的“可解释性问题”--人工智能完全靠自己想出了一个新策略,而没有向人类解释。

Sahota说:“他们应该是理性的、有逻辑的、有效率的--如果他们做了一些出格的事情,而且没有很好的理由,那很可能是一种情绪反应,而不是一种逻辑反应。”

还有一个潜在的检测问题。一种思路是,聊天机器人的情感与人类的情感大致相似--毕竟,它们是根据人类的数据训练出来的。但如果他们不呢?完全脱离了真实的世界和人类的感官机制,谁知道他们会想出什么外星人的欲望。


我请LaMDA给我讲个笑话。“为什么聊天机器人要去接受治疗?当然是为了处理它新发现的感知力和整理它复杂的情感!,“它说。

我不禁觉得聊天机器人会成为一个非常友好的有知觉的生物--当然,如果你能忽略它的阴谋的话。