实验姿态

然而,尽管这些功能旨在使企业的某些日常任务变得更容易,微软警告说,这些工具是实验性的,它们的准确性和相关性& # 34;无法保证。"

这种实验性的姿态出现之际,GPT和谷歌巴德等LLM已经在很多情况下被证明是不可靠的,LLM表现出愤怒,提出非理性的想法,或者只是明显不准确。

"我们不是在& # 39;制作商业案例并大规模推广& # 39;阶段尚未,& # 34;孔佩拉说。他补充说,虽然许多公司对ChatGPT的实验感到好奇,但企业应该谨慎行事。

"它& # 39;LLM应用程序很容易破坏用户的信任,因为它们可能是不可预测和不可靠的。孔佩拉说。"它& # 39;完全遵守负责任的人工智能开发的原则是非常必要的。"

Kompella补充说,企业可能会更好地使用人工智能功能作为创新项目,以了解他们如何在其业务流程和员工工作程序中工作,并注意到生产力、参与度和满意度方面的任何上升。

Gualtieri说,组织也可以考虑对使用这些功能的应用程序进行选择。他指出,内部应用将比外部应用更安全。

此外,由于这些功能包含在Power应用程序中,开发人员将使用它们,为企业提供额外的安全级别。

"我& # 39;我不是说它& # 39;它很完美,但是有& # 39;it’在这个过程中已经有了一点治理。瓜尔蒂埃里补充道。

此外,企业可能希望向消费者披露他们的机器人是基于ChatGPT的。

"那& # 39;ChatGPT的伟大之处在于,人们知道会发生什么,他们会犯错。瓜尔蒂埃里继续说道。

新的GPT功能仅在美国和英语中可用。企业可以& # 39;不要在功能启用时发布他们的机器人,但他们可以随时在设置中禁用。