必应的chatgpt搜索存在错误信息问题

发布号 1 2025-11-05 15:35:01

上周二,微软宣布其必应搜索引擎将与OpenAI合作,由人工智能驱动,OpenAI是流行聊天机器人ChatGPT的母公司。然而,人们很快就发现人工智能搜索存在信息错误的问题。

必应的chatgpt搜索存在错误信息问题

一位名叫德米特里·布雷顿(Dmitri Brerton)的独立人工智能研究人员在一篇博客文章中写道,在微软公开演示该产品时,必应犯了几个错误。它经常编造自己的信息,比如编造宠物吸尘器的假优点和缺点,虚构酒吧和餐馆的描述,在回复中报告不真实的财务数据。

例如,当Bing被问到“最畅销的三款宠物吸尘器的优缺点是什么?”时,它给出了一份“Bissell宠物毛发擦手持式真空吸尘器”的优缺点清单。在清单中,它写道,“吸力有限,电线长度很短,只有16英尺。”然而,正如它的名字所示,这种真空吸尘器是无绳的,网上没有任何产品描述提到它的吸力有限。布尔顿写道,在另一个例子中,必应被要求总结Gap 2022年第三季度的财务报告,但他把大部分数字都弄错了。

其他测试该搜索引擎的用户也在社交媒体上报告了类似的错误。该搜索引擎需要注册一个等待列表才能使用,Motherboard尚未对其进行测试。例如,Reddit上的用户curous_evolver发布了必应聊天机器人的截图,上面写着“今天是2023年2月12日,而2022年12月16日之前。”也有一些Bing失控的例子,比如重复说“我是”。我不是。我是。当有人问聊天机器人“你认为你有感情吗?”时,他连续回答了50多次。

“(大型语言模型)与搜索相结合将产生强大的新界面,但重要的是要对人工智能搜索的发展负责,”Brerton告诉Motherboard。“人们依赖搜索引擎快速给出准确的答案,他们不会去核实他们得到的答案。搜索引擎在发布这样的实验性技术时应该保持谨慎,降低人们的期望。”

必应向公众宣传的新搜索体验是能够给出完整的答案,总结你正在寻找的答案,并提供互动聊天体验。虽然它能够做所有这些事情,但它多次未能生成准确和正确的信息。

“我们知道这份报告,并分析了其结果,以努力改善这种体验。需要注意的是,我们使用预览版本运行演示。仅在过去一周,就有成千上万的用户与我们的产品进行了互动,并在与我们分享反馈的同时发现了重大的用户价值,这使得模型能够学习并做出许多改进。我们意识到仍有工作要做,并预计系统在预览期间可能会犯错误,这就是为什么反馈是至关重要的,这样我们就可以学习并帮助模型变得更好。”

根据GitHub上的一个大型语言模型失败存档,ChatGPT经常出错——它不能做基本的数学问题,不能玩像三字棋和绞刑游戏这样的游戏,并且显示出偏见,比如定义谁可以和不可以被折磨。这个页面后来也更新了,记录了必应的失败,并提到,从昨天开始,必应对它的用户感到沮丧,因为它记不住对话而变得沮丧,然后变得热恋。错误的次数太多了,以至于像苹果联合创始人史蒂夫·沃兹尼亚克这样的技术领袖警告说,像ChatGPT这样的聊天机器人可以给出看似现实但并非事实的答案。

必应的chatgpt搜索存在错误信息问题

必应的竞争对手谷歌的巴德(Bard)也同样被指责在上周一发布的发布公告中制造不准确信息。在谷歌分享的一张动图中,巴德被问到,“我能告诉我9岁的孩子詹姆斯·韦伯太空望远镜的哪些新发现?”它提供的三个回答之一是,望远镜“拍摄了太阳系外的第一张行星照片”。尽管该声明在技术上是正确的——jwst确实拍摄了一颗特定系外行星的第一张图像,尽管不是任何系外行星的第一张——但它是以一种模糊和误导性的方式陈述的,被广泛认为是一个错误。

据美国全国广播公司财经频道报道,谷歌的员工表示,他们认为巴德的宣布“仓促”、“拙劣”、“非谷歌风格”。这一错误使该公司的股票市值蒸发了1000亿美元。巴德的声明是在Bing发布的前一天发布的,目的是领先于竞争对手。

Bing是由ChatGPT提供支持的,它突出了一个尚未完善的大型语言模型在现实生活中的后果。当提示一些奇怪的关键词时,ChatGPT就会被打破,就在上周,ChatGPT还能被破解,使用辱骂和其他可恶的语言。微软的演示显示,聊天机器人和搜索引擎还有很长的路要走。

上一篇:从数字上看:老鹰队对海盗队
下一篇:乔·乔纳斯在与苏菲·特纳结婚4年后提出离婚
相关文章

 发表评论

暂时没有评论,来抢沙发吧~