财联社4月20日讯(编辑 马兰)过去美国人在谷歌上问诊,中国人在百度上问诊,现在,更多人开始在ChatGPT上问诊。
虽然OpenAI研发ChatGPT时志不在此,但顾客才是上帝。随着ChatGPT被更多“上帝”拿来充当医疗顾问,OpenAI也只能不断重复对外宣称,永远不要使用语言模型来为严重的医疗状况提供诊断或治疗服务。
然而,ChatGPT越来越人性化的回答,很多时候充当起“解语花”的作用。这一点对需求心理咨询的患者来说,尤其有诱惑力。
而脱离开OpenAI这个创造者,ChatGPT本身对扮演“赤脚医生”一事的看法又十分矛盾。
用户Milo Van Slyck爆料,他在咨询变性人问题时,插空询问ChatGPT如何看待其医疗角色。ChatGPT一方面回答,在线资源或许有帮助,但其不能替代专业的意见。另一方面,这个人工智能又称,话虽如此,如果Van Slyck有任何具体问题或疑虑,它很乐意解答。
多年来一直接受人类咨询师辅导的Van Slyck已经倒戈,他表示会继续和人类治疗师会面,但和ChatGPT聊私人话题显然更加自在。
AI的道德陷阱
早在1960年代,就已经有人用聊天机器人代替人类咨询师,在医疗领域治疗病人。麻省理工学院教授Joseph Weizenbaum研发的Eliza就是一款模仿人类治疗师的机器人。
此后,Woebot、Wysa等聊天机器人也在医疗领域进行尝试,并在心理健康方面持续深耕。这些机器人的好处是,永远不会感到疲倦,也不会被病人情绪影响,而且成本不高。
但世界上不可能出现十全十美的东西。诸如ChatGPT一类的新模型并非专门用于治疗的技术,其引用的很多信息就可能暗藏陷阱。
比如,这种人工智能目前没有被设定必须要遵守更加严格的、适用于医疗方面的道德和法律准则。
此外,ChatGPT没有自己的“病历本”。这就可能导致患者在咨询时不得不重复描述自己过去的病情,如若不然,ChatGPT很可能不仅无法提供帮助,甚至会因为过于胡说八道而让病人更加“暴躁”。
因此,堪萨斯大学的教授和临床心理学专家Stephen Ilardi警告,把ChatGPT当作医生有点儿戏,其被应用于严重精神疾病治疗时会产生巨大的风险。
但他也认为,如果提供正确的指引,ChatGPT之类的人工智能显然可以在心理健康服务供不应求的时候发挥作用。
人工智能公司Hugging Face的首席道德科学家Margaret Mitchell也支持这一观点,提出人工智能可以在接听更多危机求助的热线电话上帮忙。
OpenAI的道德陷阱
ChatGPT道德感天生薄弱,而Mitchell本人对OpenAI的道德感也有怀疑。
事实上,OpenAI会审查用户与人工智能的对话,并将这些应用于机器训练。对于那些向OpenAI倾吐私密烦恼的用户来说,隐私泄露很可能会加深他们的痛苦。
今年3月,部分ChatGPT用户的对话内容被泄露,导致其他用户可以看到聊天内容,OpenAI因此紧急关闭ChatGPT。而这还可能只是用户隐私事故中属于最轻量级的。
根据使用条例,ChatGPT用户的账户信息在删除申请后,仍将保留至多4个星期。
有些人担忧隐私问题,而有些人则是觉得向机器人寻求心理安慰极其别扭。用户Aaron Lawson就指出,虽然ChatGPT的回答很人性化,但它毕竟不是真人,因此他很难配合ChatGPT进行治疗步骤。
对此,Stability AI的创始人兼首席执行官Emad Mostaque表示,ChatGPT确实会提供很好、很合理的建议,但不会替代人类医生的治疗,充其量是在找不到人交谈时候的一个替代品。