最近,由人工智能聊天机器人驱动的搜索引擎层出不穷,微软用上了 ChatGPT,谷歌拿出了 Bard。这些产品背后的核心想法是,这些人工智能聊天机器人将基于我们的问题生成闲聊一样的答案,以颠覆目前搜索引擎的使用体验。在理想状态下,我们将看到更完整的回答,而不是一条条网址组成的链接列表。但到目前为止,事情并没有按计划发展下去。


微软让许多用户体验它最新的、基于 ChatGPT 的必应搜索引擎,很快人们就开始发现它的回答包含了一些错误或荒谬的内容,比如捕风捉影的阴谋论。谷歌经历了一个尴尬的时刻,科学家们发现该公司在产品发布会上展示了一个事实性错误,这使其股价蒸发了 1000 亿美元。


面对这些情况,了解人工智能语言模型的人本不应该感到惊讶。



最大的问题是:这项技术还没有准备好如此大规模地使用。人工智能语言模型“胡说八道”的情况大家是有目共睹的。它经常用言之凿凿的语气说出一段谎言,它很擅长预测句子中的下一个单词,但它并不理解这个句子的实际涵义。这意味着,将它们与搜索引擎结合起来,是非常危险的一件事,因为在搜索结果里展示事实是非常重要的。


OpenAI 是热门人工智能聊天机器人 ChatGPT 的创造者,该公司一直强调它仍然只是一个研究项目,随着人们的反馈它正在不断改进。但这并没有阻止微软将其整合到新版必应搜索,尽管有人警告说,搜索结果可能不可靠。


谷歌多年来一直在使用自然语言处理方法,来帮助人们使用整个句子而不是关键词来搜索互联网上的内容。然而,华盛顿大学研究在线搜索的教授希拉格·沙阿(Chirag Shah)表示,该公司其实一直不愿将自己的人工智能聊天机器人技术整合到其核心产品搜索引擎中。谷歌的领导层之前一直担心,匆忙推出类似 ChatGPT 的工具会招来不必要的“声誉风险”。


大型科技公司最近犯的错误并不意味着人工智能搜索已经失败。谷歌和微软正在尝试许多方法让其人工智能生成的搜索摘要更准确,其中一种是提供消息来源的链接。


人工智能初创公司 Hugging Face 的研究员和伦理学家玛格丽特·米切尔(Margaret Mitchell)曾共同领导过谷歌的人工智能伦理团队,她表示,提供消息来源可以让用户更好地了解搜索引擎是从哪里获取的信息。


她说,这甚至可能帮助人们从更多视角了解一个事件,促使他们寻找更多的信源。


但这并不能解决这些人工智能模型虚构信息并自信地将谎言作为事实呈现的根本问题。当人工智能生成的文本看起来很权威并添加了引用来源时,这反倒可能会让用户更不太可能核查他们所看到的信息。


“很多人不会查看引用信源,而添加信源会给人一种正确的感觉,”米切尔说。


但沙阿说,搜索结果的准确性并不是大型科技公司的真正重点。尽管谷歌发明的技术助长了当前人工智能的炒作,但人们的赞誉和注意力却牢牢地集中在热门的初创公司 OpenAI 及其投资者微软身上。“这对谷歌来说绝对是令人尴尬的。他们现在处于防御位置。他们已经很久没有处于这种状态了,”沙阿说。


与此同时,微软赌人们对必应的期望很低,以至于出现一些错误并不重要。微软在在线搜索领域的市场份额还不到 10%。沙阿说,仅赢得几个百分点,对他们来说就称得上是一场巨大的胜利。


沙阿补充说,除了人工智能搜索之外,还有一盘更大的棋局。搜索领域只是这两家科技巨头相互竞争的领域之一。他们还在云计算服务、生产力软件和企业软件方面展开竞争。对话人工智能成为一种展示尖端技术的方式,然后将它转化到其他产品和业务中。


沙阿认为,这些公司会把早期的小问题当作学习的机会,“他们没有谨慎行事,而是以一种非常大胆的方式行事。就让人工智能系统犯错吧,因为现在大家都看到它了。”


他还补充说,“从本质上说,我们这些用户现在正在帮科技公司免费测试这项技术。在这一点上我们都是小白鼠。”


支持:Ren


原文:

https://www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines/