“因为他们不知道他们生成的单词是什么意思,所以他们根本没有能力进行道德推理。”
那么,这个培训内容是什么?
“他们使用非常粗糙的、基于机器的工具并结合人类实践,”她说。
可怕的内容范围从仇恨言论到亲纳粹情绪,以及介于两者之间的一切。
在一天结束时,可以绕过这些控制。
“这些技术的超级用户总是想要颠覆创造它们的善意工程师,”Powles 博士说。
“颠覆他们,让他们完全按照我们最关心的方式行事,如果向公众发布——发表仇恨言论,发表仇恨和恐怖的内容。”
墨尔本大学计算与信息系统学院讲师 Suelette Dreyfus 认为,重点需要放在创造和使用技术的人身上,而不是技术本身。
“我们不应该惩罚这项技术,”Dreyfus 博士说。
“我们必须认识到技术是一回事,它可以用于善事或恶事。
关于人工智能是如何创造的,存在一个更模糊的伦理问题
除了不道德的 DAN 之外,Powles 博士更担心的是用于创建 AI(例如 ChatGPT)的可疑做法。
“在大型语言模型的情况下,这涉及真正大规模盗窃这些公司没有生产的书面作品,”她说。
她认为,科技公司不能再对人工智能可能造成的危害一无所知,或者以“我们有数百万用户”和“我们改变了世界”等借口推卸责任。
“我们最终需要吸取 20 年科技和 SM 的教训,”她说。
“没有其他企业会像这些公司通过复杂的结构那样袖手旁观并合法地自我隔离。”
但 Dreyfus 博士说,限制对人工智能的访问或使用并不是那么简单。
Dreyfus 博士说,围绕 AI 的伦理是复杂的,在整个创造过程中都需要考虑伦理问题。
“你可以做的一件事实际上是在访问这样的工具时提高安全性,以确保......它用于适合目的而不是更多,”她解释道。
“与此同时,我们希望拥有社会、创新和事物的自由。它们会从这样的工具中产生。我们不想把它们拿走。”
“过多地限制它们将是一个问题,因此我们需要在它们之间取得平衡。”
相反,Dreyfus 博士说,创建这些程序的人需要从一开始就考虑伦理问题。
“我们需要教育——不仅要让公众思考道德问题,还要确保我们对未来的工程师进行道德行为方面的培训,”她说。