ChatGPT的“幻觉”是否会消失?

与 ChatGPT 和其他人工智能聊天机器人聊足够长时间,就能发现它们很快就会说谎话。

这种现象被描述为幻觉、虚构或纯粹是胡编乱造,现在已成为每家企业、机构和高中生试图让生成式人工智能系统编写文档和完成工作时会遇到的问题。从心理治疗到研究和撰写法律摘要,有些人将其用于可能产生严重后果的任务。

聊天机器人Claude 2的制造商Anthropic的联合创始人兼总裁丹妮拉·阿莫代伊(Daniela Amodei)说:“我认为,如今没有一种模型不会产生幻觉。”

阿莫代伊表示:“实际上,它们的设计初衷只是用来预测下一个单词。因此,模型在某些情况下会出现失误。”

Anthropic、ChatGPT 制造商 OpenAI 和其他被称为大型语言模型的人工智能系统的主要开发商表示,他们正在努力使这些模型变得更准确。

至于这需要多长时间,以及它们是否能做到准确无误地提供医疗建议,还有待观察。

语言学教授、华盛顿大学(University of Washington)计算语言学实验室主任艾米丽·本德(Emily Bender)说:这是无法解决的,是技术与拟议用例不匹配的通病。”

生成式人工智能技术的可靠性至关重要。麦肯锡全球研究院(McKinsey Global Institute)预计,这将为全球经济带来相当于2.6万亿至4.4万亿美元的收入。聊天机器人引爆一波热潮,可以生成新图像、视频、音乐和计算机代码等的技术也掀起了热潮。几乎所有的工具都包含一些语言组件。

谷歌(Google)已经在向新闻机构推销一款新闻写作人工智能产品。对新闻机构来说,准确性至关重要。作为与OpenAI合作的一部分,(The Associated Press)也在探索使用这项技术,而OpenAI正在付费使用的部分存档文本来改进其人工智能系统。

计算机科学家加内什·巴格勒(Ganesh Bagler)与印度的酒店管理机构合作,多年来一直致力于让人工智能系统(包括 ChatGPT 的前身)发明南亚菜肴的食谱,比如新式印度比尔亚尼菜(以米饭为主)。一种“令人产生幻觉”的配料就可能决定菜肴美味与否。

“我想ChatGPT产生幻觉仍然是可以接受的,但当食谱出现幻觉时,问题就严重了。”巴格勒在这位美国科技高管的全球之行新德里站上,在拥挤的校园礼堂里站起来对奥特曼说道。

奥特曼说:“我相信,用一年半到两年的时间,我们团队就能基本解决幻觉的问题。大致如此。到那时,我们就无需讨论这一问题了。创意和完全准确之间存在微妙的平衡,模型需要学习在特定时间,你需要的是哪一种类型的答案。”

但对于一些研究这项技术的专家来说,比如华盛顿大学的语言学家本德,这些改进还远远不够。

本德将语言模型描述为根据训练语料,“对不同词形字符串的可能性进行建模”的系统。

拼写检查器就是通过这样的语言模型来检查你是否打错字了。本德说,这样的语言模型还能助力自动翻译和转录服务,使输出结果看起来更像目标语言中的典型文本。许多人在编写短信或电子邮件使用自动补全功能时,都依赖这项技术的某个版本。

最新一批聊天机器人,如ChatGPT、Claude 2或谷歌的Bard,试图通过生成全新的文本段落来将这一技术提高到新水平,但本德表示,它们仍然只是重复选择字符串中最合理的下一个单词。

当用于生成文本时,语言模型“被设计为编造内容。这就是语言模型完成的所有任务。”本德说。他们擅长模仿各种写作形式,比如法律合同、电视剧本或十四行诗。

本德说:“但由于它们只会编造内容,所以当它们编造出来的文本恰好被解读为内容正确(我们认为准确无误)时,那只是偶然。即使通过微调,使其在大多数情况下都是正确的,它们仍然会出现失误——而且很可能出现的情况是,阅读文本的人很难注意到这类错误,因为这类错误更隐蔽。”

Jasper AI公司总裁谢恩·奥利克(Shane Orlick)说,对于那些向 Jasper AI 寻求帮助撰写宣传文案的营销公司来说,这些错误并不是什么大问题。

奥利克说:幻觉实际上是一种额外的奖励。经常有客户告诉我们Jasper是如何提出创意的——Jasper是如何创作出他们想不到的故事或是从他们都想不到的角度切入的。”

这家总部位于德克萨斯州的初创公司与OpenAI、Anthropic、谷歌或脸书(Facebook)母公司Meta等合作伙伴合作,为客户提供各种人工智能语言模型,以满足他们的需求。奥利克说,该公司可能为关注准确性的客户提供Anthropic的模型,而为关注其专有源数据安全性的客户提供不同的模型。

奥利克说,他知道幻觉不会轻易被修复。他寄希望于像谷歌这样的公司投入大量精力和资源来解决这一问题,他表示谷歌的搜索引擎必须有高标准的事实性内容。

我认为他们不得不解决这一问题。奥利克说。他们必须解决这一问题。我不知道它是否会变得完美,但随着时间的推移,它可能会日臻完善。“

包括微软(Microsoft)联合创始人比尔·盖茨(Bill Gates)在内的科技乐观主义者一直在预测乐观的前景。

盖茨在7月份的一篇博客文章中详细阐述了他对人工智能社会风险的看法,他说:“随着时间的推移,我很乐观地认为,人工智能模型能够学会区分事实和虚构。”

但即使是奥特曼,当他推销产品的各种用途时,也不指望模型在为自己寻找信息时是可信的。

“我可能是世界上最不相信ChatGPT给出的答案的人了。”奥特曼在巴格勒所在的大学里对听众说,引来一片笑声。(财富中文网)

与 ChatGPT 和其他人工智能聊天机器人聊足够长时间,就能发现它们很快就会说谎话。

这种现象被描述为幻觉、虚构或纯粹是胡编乱造,现在已成为每家企业、机构和高中生试图让生成式人工智能系统编写文档和完成工作时会遇到的问题。从心理治疗到研究和撰写法律摘要,有些人将其用于可能产生严重后果的任务。

聊天机器人Claude 2的制造商Anthropic的联合创始人兼总裁丹妮拉·阿莫代伊(Daniela Amodei)说:“我认为,如今没有一种模型不会产生幻觉。”

阿莫代伊表示:“实际上,它们的设计初衷只是用来预测下一个单词。因此,模型在某些情况下会出现失误。”

Anthropic、ChatGPT 制造商 OpenAI 和其他被称为大型语言模型的人工智能系统的主要开发商表示,他们正在努力使这些模型变得更准确。

至于这需要多长时间,以及它们是否能做到准确无误地提供医疗建议,还有待观察。

语言学教授、华盛顿大学(University of Washington)计算语言学实验室主任艾米丽·本德(Emily Bender)说:这是无法解决的,是技术与拟议用例不匹配的通病。”

生成式人工智能技术的可靠性至关重要。麦肯锡全球研究院(McKinsey Global Institute)预计,这将为全球经济带来相当于2.6万亿至4.4万亿美元的收入。聊天机器人引爆一波热潮,可以生成新图像、视频、音乐和计算机代码等的技术也掀起了热潮。几乎所有的工具都包含一些语言组件。

谷歌(Google)已经在向新闻机构推销一款新闻写作人工智能产品。对新闻机构来说,准确性至关重要。作为与OpenAI合作的一部分,(The Associated Press)也在探索使用这项技术,而OpenAI正在付费使用的部分存档文本来改进其人工智能系统。

计算机科学家加内什·巴格勒(Ganesh Bagler)与印度的酒店管理机构合作,多年来一直致力于让人工智能系统(包括 ChatGPT 的前身)发明南亚菜肴的食谱,比如新式印度比尔亚尼菜(以米饭为主)。一种“令人产生幻觉”的配料就可能决定菜肴美味与否。

“我想ChatGPT产生幻觉仍然是可以接受的,但当食谱出现幻觉时,问题就严重了。”巴格勒在这位美国科技高管的全球之行新德里站上,在拥挤的校园礼堂里站起来对奥特曼说道。

奥特曼说:“我相信,用一年半到两年的时间,我们团队就能基本解决幻觉的问题。大致如此。到那时,我们就无需讨论这一问题了。创意和完全准确之间存在微妙的平衡,模型需要学习在特定时间,你需要的是哪一种类型的答案。”

但对于一些研究这项技术的专家来说,比如华盛顿大学的语言学家本德,这些改进还远远不够。

本德将语言模型描述为根据训练语料,“对不同词形字符串的可能性进行建模”的系统。

拼写检查器就是通过这样的语言模型来检查你是否打错字了。本德说,这样的语言模型还能助力自动翻译和转录服务,使输出结果看起来更像目标语言中的典型文本。许多人在编写短信或电子邮件使用自动补全功能时,都依赖这项技术的某个版本。

最新一批聊天机器人,如ChatGPT、Claude 2或谷歌的Bard,试图通过生成全新的文本段落来将这一技术提高到新水平,但本德表示,它们仍然只是重复选择字符串中最合理的下一个单词。

当用于生成文本时,语言模型“被设计为编造内容。这就是语言模型完成的所有任务。”本德说。他们擅长模仿各种写作形式,比如法律合同、电视剧本或十四行诗。

本德说:“但由于它们只会编造内容,所以当它们编造出来的文本恰好被解读为内容正确(我们认为准确无误)时,那只是偶然。即使通过微调,使其在大多数情况下都是正确的,它们仍然会出现失误——而且很可能出现的情况是,阅读文本的人很难注意到这类错误,因为这类错误更隐蔽。”

Jasper AI公司总裁谢恩·奥利克(Shane Orlick)说,对于那些向 Jasper AI 寻求帮助撰写宣传文案的营销公司来说,这些错误并不是什么大问题。

奥利克说:幻觉实际上是一种额外的奖励。经常有客户告诉我们Jasper是如何提出创意的——Jasper是如何创作出他们想不到的故事或是从他们都想不到的角度切入的。”

这家总部位于德克萨斯州的初创公司与OpenAI、Anthropic、谷歌或脸书(Facebook)母公司Meta等合作伙伴合作,为客户提供各种人工智能语言模型,以满足他们的需求。奥利克说,该公司可能为关注准确性的客户提供Anthropic的模型,而为关注其专有源数据安全性的客户提供不同的模型。

奥利克说,他知道幻觉不会轻易被修复。他寄希望于像谷歌这样的公司投入大量精力和资源来解决这一问题,他表示谷歌的搜索引擎必须有高标准的事实性内容。

我认为他们不得不解决这一问题。奥利克说。他们必须解决这一问题。我不知道它是否会变得完美,但随着时间的推移,它可能会日臻完善。“

包括微软(Microsoft)联合创始人比尔·盖茨(Bill Gates)在内的科技乐观主义者一直在预测乐观的前景。

盖茨在7月份的一篇博客文章中详细阐述了他对人工智能社会风险的看法,他说:“随着时间的推移,我很乐观地认为,人工智能模型能够学会区分事实和虚构。”

但即使是奥特曼,当他推销产品的各种用途时,也不指望模型在为自己寻找信息时是可信的。

“我可能是世界上最不相信ChatGPT给出的答案的人了。”奥特曼在巴格勒所在的大学里对听众说,引来一片笑声。(财富中文网)

You May Also Like

More From Author

+ There are no comments

Add yours