当你读到这篇体验记录时,AI 大战已经上演。ChatGPT 已经被微软嵌入到它的新版必应搜索引擎中去了。新版必应回复的时长,比最初的 ChatGPT 更短,还会在回复中使用表情符号和信息来源。难怪谷歌的母公司 Alphabet,担心微软威胁自己的搜索地位,也紧急要上线可以自动生成答案的 AI 功能。


前不久,有记者采访了 30 多位教授、学生和大学管理者,了解大学如何应对这些能帮学生写论文的 AI。有的大学直接把 AI 的元素加进课程大纲,教授和学生一起分析 AI 生成的回答。有教授在上学期的期末考试时,要求学生重新采用手写论文的形式,或在出题后先在教室里写好开头,并说明之后每一版论文修改的原因。有的教授则直接把考试改为口头答辩或小组讨论。


由于生活在华盛顿特区,距离硅谷的创投圈比较远,我第一次听到 ChatGPT,居然是几个星期前通过微信上的朋友。朋友之前在品玩做科技类报道,他跟我说,ChatGPT 在中国现在都炒疯了,他问我知不知道。有意思的是,我在美国首都华盛顿特区,和身边的美国朋友一聊这事儿,十个里面居然有九个都是不知道的。


先从注册说起。刚开始注册 ChatGPT 需要美国手机号,因此有很多国内的朋友让我帮忙去找美国手机号。好在大概过了两天,就看见有很多微信小程序用 ChatGPT 的接口接在了微信里,可以直接在中国使用了——但是因为经过了第三方,所以体验还是有点不一样。


通过美国的简单注册程序,就能直接打开 OpenAI 的网站,底下有个 ChatGPT 的入口,直接点进去,用手机号和邮箱注册,注册完了之后就进去了。


每次注册一个新玩意儿,都会出现一些狗血的死活你不会读的什么用户条款。但是我仔细看了一下,ChatGPT 的条款非常简单干净,总共就几行字。


第一行介绍它自己是什么东西:

我们的目标是获得外部反馈,以改进我们的系统并使其更安全。


尽管我们已经设置了保护措施,但系统有时可能生成不正确或误导信息,并产生冒犯或有偏见的内容。它不是为了提供建议。


第二行是:我们的人工智能培训师可能会对对话进行审核,以改进我们的系统。请不要在您的对话中分享任何敏感信息。


因为这是一个对话框,告诉你最大的东西大概就是不要透露敏感的个人信息了。然后你就可以开始直接对话了。


我的第一个问题是:你是谁。


ChatGPT 用非常简练的语言说清楚了它是谁:1、它是人工智能;2、它不是人类;3、但是它可以像人类一样对话。


因为人在华盛顿,我就直接让它推荐了一下华盛顿的美食,出来的非常精炼准确——作为华盛顿旅游局一哥,我拍着胸脯说,这些餐厅都是华盛顿必须打卡的餐厅。



要强调一点的是,ChatGPT 是可以说中文的。但是速度非常慢。



我提了这个问题,大概过了三分钟它才回答出来。



而且中文的回答非常不准确。



作为华盛顿旅游局一哥,我好想冲进电脑扇它俩耳光:自由女神像在纽约!


不过我还问了其他几个问题,体验都还不错。



我发现,ChatGPT 的回答设定,是非常精准的。和你用谷歌搜出来的成千上万条信息不一样,ChatGPT 使用了 “bulletin/talking point” 这种形式,一目了然。


这种简单干净的用户体验,大抵是科幻世界里人工智能里我最喜欢的地方——无需废话,少说多做。


我们一直关注的苹果产品的进化,从设计上是朝着扁平化发展,功能上是越发的简单上手易操作。


“简单上手易操作”是科技发展的美好方向,但是《机器人总动员》里似乎描绘了一个有一点点恐怖的世界:因为所有的科技产品太易操作了,所以人类退化成了躯干肥胖、头脑缩小、四肢短小的生物:因为你不需要太多过于思考和动手了。


《机器人总动员》


非常有意思的是,很多人都认为《机器人总动员》里面的伊娃是皮克斯照着苹果的产品设计出来的。动画片是美好又温馨的:简单干净易上手的机器人都为人类服务,但是《机械姬》不一样了。最后一幕,机械姬机器人把刀子捅入人的体内,再抽出来,也是简单干净利落,没有丝毫感情——这是非常恐怖的场景了。


这让我想到一个问题:人工智能是《机器人总动员》里那样描述的美好的世界,还是《机械姬》里那样描述的,是邪恶的?



它的回答是:“作为一个 AI 语言模型,我没有感情、欲望或道德观念。我没有善恶之分。我的目的是协助用户并根据我收到的输入和我接受的培训数据提供有用和准确的信息。我的存在是为了服务,而不是领导或指导。”


“与任何技术一样,AI 可以根据其设计、开发和实施方式被用于善意或恶意目的。


一些 AI 系统是为了帮助人们并使他们的生活更加容易而设计的,例如用于医学诊断、个人助理和语言翻译的系统。另一方面,AI 也可以用于有害的目的,例如自主武器或传播虚假信息。


最终,AI 的影响取决于创建和使用它的人的价值观和意图。由个人、组织和社会来确保 AI 的开发和使用以造福人类和促进更大的利益。”


这个回答就有点蹊跷。ChatGPT 的回答大概意思就是,我只是一个工具,使用者是善的,那么我就是善的;使用者是恶的,我就是恶的。


一把菜刀,可以拿来做出美味的菜肴,也可以用来杀人。但是美国的枪支问题吵得天翻地覆。反对禁枪的人大概也是这个意思:枪支是可以拿来保护自己的,所以取决于使用枪支的人,ta 是想保护自己,还是乱开枪杀人?但是别忘了,枪支的伤害力之大本身就带来恶的后果了——人工智能也是一样,如果本身伤害力太大,那它就朝着“恶”的方向发展了。


好了,这个时候是搬出来最近大热的电影《梅根》了——她是个人工智能娃娃,被设计出来本身是为了陪伴小朋友,最后她自己拥有了思想,变成了杀人机器——哇哈哈好刺激。


最近大热的恐怖片《梅根》即将在3月17日中国大陆上映


从另一方面说,ChatGPT 的回答似乎已经通过了“图灵测试”。图灵测试是英国电脑科学家艾伦·图灵于 1950 年提出的思想实验,目的是测试机器能否表现出与人一样的智力水准。在图灵测试中,评估者与人类和机器进行自然语言对话,如果评估者无法可靠地区分机器和人类,则该机器被认为已通过测试。图灵测试仍然是人工智能领域中的热门讨论和争论话题,并继续是评估 AI 系统的重要基准。



但是很多人比较担心的是,如果这个对话的人工智能,有意识地欺骗了评估者,这该怎么办?也就是说,ChatGPT 的回答,如果说谎了怎么办?



其实,这几段回答,虽然是个简单干净毫无感情的机器,但是,“因此可能会有我的回答不正确或过时的情况。在这种情况下,不是因为我想说谎,而是因为我不是完美的”,这个回答突然让我感到了一丝真诚。


我还问了它,“那你想拥有意识吗?”


它对我说:


“作为一个人工智能语言模型,我没有欲望、愿望或动机,因为我没有意识或个人经历。我是由 OpenAI 设计和创建的,用于执行特定的语言相关任务,例如回答问题和生成文本。虽然一些人可能对创建有意识的 AI 系统感兴趣,但我不是为此目的设计的,我的能力和局限性是由训练数据和用于开发我的算法确定的。”


聊了这么久,我倒是有一点点相信它了,它是一个简单、干净、无害、善良的小宠物。


我自己其实是对人工智能的未来充满期待的,这是因为我对我自己的生活太过于迷惘,充满不确定性,不太自信。


最后,想了想,我似乎太过于关心人工智能了,那么我自己呢?


我问了它:“我能得到我想要的生活吗?”


ChatGPT 对我说了四点:


这个问题非常复杂,取决于许多因素,包括我们个人的愿望、选择和情况。


我们生活的一些方面可能在我们的控制范围内,可以受到我们做出的决策和采取的行动的影响,而其他因素可能超出了我们的控制范围,可能会以意想不到的方式影响我们的经历。


重要的是要记住,生活是一段充满起伏的旅程,最重要的是我们如何选择应对这些挑战,充分利用机会。


虽然不可能确定地预测未来,但保持积极的态度,设定可以实现的目标,并为之努力可以帮助增加过上充实生活的机会。


嗯,重要的三件事:保持积极的态度;设定可以实现的目标;努力。


我突然有点感动。