ChatGPT「幻觉」问题无法解决

技术专家开始怀疑ChatGPT和AI“幻觉”问题是否会消失:“这是无法解决的”

越来越多的人与ChatGPT等人工智能聊天机器人互动,发现它们容易说出错误信息。这种现象被称为幻觉、发牢骚或者就是编造事实,现在已经成为每个企业、组织和高中生面临的问题,他们试图让生成式AI系统撰写文档,为他们完成工作。有些人甚至将其用于可能产生重大后果的任务,如心理治疗和法律文书的研究与撰写。

Anthropic公司联合创始人兼总裁Daniela Amodei表示:“我认为现有的模型没有一个不会受到一些幻觉的影响。”Anthropic公司生产的聊天机器人名为Claude 2。“它们的主要设计目的是预测下一个词,”Amodei说。“所以模型总有一定的错误率。” 

Anthropic、ChatGPT制造商OpenAI以及其他大型AI系统开发者表示,他们正在努力让这些系统尽量少或不出现幻觉。至于最终需要多长时间,以及它们是否能够足够好地提供安全的建议,还有待观察。 

华盛顿大学计算语言学实验室主任、语言学教授Emily Bender表示:“这是无法解决的,问题出在该技术与预期应用场景的不匹配。”生成式AI技术的可靠性至关重要,因为据麦肯锡全球研究所预测,它将为全球经济增加2.6万亿至4.4万亿美元的价值。聊天机器人只是这股热潮的一部分,它还包括能够生成新图像、视频、音乐和计算机代码的技术。 

Google已经向新闻组织自荐了一款新闻撰写AI平台。美联社也在与OpenAI合作,探索使用这项技术,OpenAI正在支付使用美联社部分文本档案以改进其AI系统。 

印度计算机科学家Ganesh Bagler与印度的酒店管理学院合作,多年来一直致力于让AI系统创造出新颖的南亚美食食谱,比如以米饭为基础的新口味的biryani。一个“幻觉”的出现可能会让原本的美味佳肴变得难以下咽。 

OpenAI首席执行官Sam Altman在6月份访问印度时,德里印度技术研究院的一位教授提出了一些尖锐的问题。Bagler站在拥挤校园礼堂中对Altman说:“我猜ChatGPT中的幻觉现象还能被接受,但是当一个食谱产生幻觉时,这就成了一个严重的问题。” 

Altman给出了乐观的回应,但也没有完全保证。“我认为我们可以在很大程度上解决幻觉的问题,”Altman说。“我认为这需要一年半到两年的时间。在那之后我们可能就不会再讨论这个问题了。模型还需要时间学会在创造力和完美准确度之间取得平衡。” 

然而,对于一些研究该技术的专家,比如华盛顿大学的语言学家Bender,认为这种改进是不够的。 

当用于生成文本时,Bender表示,语言模型被设计成编写故事,它们擅长模仿各种文本形式,比如法律合同、电视剧本或者十四行诗。“但由于它们永远只是编写故事,所以当它们输出的是正确文本时,那是很偶然的事情。”Bender说:“即使它们可以调整为更准确地完成任务,它们还是会出现错误模式,而且这种错误,阅读文本的人难以察觉,因为它们往往比较模糊。” 

对于一些营销公司来说,这种错误并非是个大问题。有家德克萨斯州的初创企业与OpenAI、Anthropic、Google和Facebook母公司Meta等合作,为客户提供一系列量身定制的AI语言模型。对于关心准确性的人,它可能会选择Anthropic的模型;而对于关心自己专有的源数据安全的人,可能会选择另一种模型。 

幻觉问题确实不容易解决。但有人认为像谷歌这样的公司能找到解决方案,谷歌在搜索引擎中有一个必须“非常高的事实准确性标准”。 

一些技术乐观主义者,包括微软联合创始人比尔·盖茨,对此表示乐观。盖茨在7月份的一篇博客文章中谈到AI时表示:“我对AI模型将来能区分事实与虚构持乐观态度。”他引用了OpenAI在2022年发表的一篇论文作为“在这方面的有希望的工作”的例子。 

然而,即使是Altman在为各种用途推介产品时,他也并不指望该模型回复给他的信息,能为他保证完全真实。Altman在Bagler的学校演讲时对观众说:“也许我是世界上最不相信ChatGPT输出答案的人。”这引发了众人的笑声。 

参考资料

https://fortune.com/2023/08/01/can-ai-chatgpt-hallucinations-be-fixed-experts-doubt-altman-openai/

https://www.94c.cc/info/chatgpt-and-ai-hallucinations-will-ever-go-away.html

猜你喜欢

转载自blog.csdn.net/2302_76860168/article/details/132588405