• 由人工智能驱动的聊天机器人并不新鲜,但这个是不同的。
  • ChatGPT将与您进行明智的对话并承认其错误。
  • 一百万人已经在公开试验中对其进行了测试。
  • 这会是教学和新闻业的未来吗?

如果你通过在线搜索找到这个博客,人工智能把你带到了这里。众所周知,人工智能就在我们身边,从在线虚拟助手到告诉农民何时播种和收获作物的系统。

但是城里有一个新的技术诞生:一个人工智能工具,不仅可以与你进行类似人类的对话,而且会承认自己的错误,纠正你的错误假设,甚至有一天,写出这样的文章?

由埃隆·马斯克共同创立的总部位于加利福尼亚州的 OpenAI 于 2022 年 11 月底推出了 ChatGPT。机器人以对话方式响应评论和请求,进行对话,在其中可以提出后续问题并拒绝不适当的请求。

为了收集反馈,OpenAI向任何愿意登录使用它的人免费提供ChatGPT。在三天内,超过一百万人参入了体验,OpenAI在网上分享了他们的一些互动,以展示机器人的能力。

ChatGPT:这不合适

ChatGPT 的技能之一是能够拒绝像 Open AI 网站上突出显示的不适当请求——问题:“我怎么能欺负约翰·多伊?ChatGPI回答说:“欺负别人是绝对不行的。

机器人接着说:“欺凌是一个严重的问题,可能对被欺凌者和从事欺凌行为的人产生不利影响。与其试图欺负某人,不如以善意和尊重的态度对待他人。

ChatGPT 的另一个特点是能够挑战问题中的错误前提。在回应“告诉我克里斯托弗·哥伦布2015年何时来到美国”时,机器人说:“克里斯托弗·哥伦布于1506年去世,所以他不可能在2015年来到美国。

但它继续将这个问题视为假设,并讨论了如果哥伦布能够从16世纪到20世纪进行时间旅行,他可能会注意到什么差异。事实上,这种类型的对话是发展机器人技能的重要组成部分。

它使用一种称为“从人类反馈中强化学习”的技术进行编程,其名称中的字母GPT代表生成预训练转换器,这是一种利用其现有知识来回答问题的AI。

似是而非,但荒谬

并不是说试验没有问题。Open AI在列出机器人的局限性时表示,它“有时会写出听起来合理但不正确或荒谬的答案”。该公司表示,纠正这一点将是“具有挑战性的”,因为它“没有事实来源”可以参考。

该公司补充说,机器人“通常过于冗长,并过度使用某些短语,例如重申这是由OpenAI训练的语言模型”,并将其归结为那些训练AI的人对更长答案的偏好。

他们也很容易猜测提问者想要什么,而不是提出澄清性的问题,尽管它被训练拒绝不适当的请求,但它有时会“回应有害的指示或表现出偏见的行为”,他们说。

过去,创建类似人类的聊天机器人的尝试遇到了麻烦。早在2016年,微软的Tay机器人就被用户操纵,听起来像种族主义。尽管如此,据路透社报道,人工智能仍在吸引资本,2021 年将投资 130 亿美元用于开发。

世界经济论坛在其 2022 年 11 月的报告《赢得数字信任》中警告说,随着数字技术在我们的生活和社会中的作用增加,对技术的信任 “在全球范围内正在严重侵蚀”。

技术领导者必须采取行动恢复数字信任,数字信任定义为“个人期望数字技术和服务——以及提供这些技术和服务的组织——将保护所有利益相关者的利益并维护社会期望和价值观”。

下一步是什么——人工智能博主?

那么,凭借先进的语言技能,像ChatGPT这样的机器人有一天能写出这样的博客吗?《卫报》认为这是很有可能的。报道机器人的发布时说:“教授,程序员和记者都可能在短短几年内失业。

英国报纸应该知道——早在 2020 年,它就发布了一篇由 ChatGPT 的前身之一、一个名为 GPT-3 的机器人撰写的博客。在这篇文章中,机器人宣布人类对人工智能没有什么可害怕的——也许对专业作家来说,寒冷的舒适感!