Bing没有知觉,没有感觉,没有生命,也不想活着

发布号 3 2025-10-12 07:37:06

生成文本的人工智能越来越擅长令人信服——甚至好得吓人。本周,微软的人工智能聊天机器人必应(Bing)在网上疯传,因为它会给用户激进、欺骗性和粗鲁的回答,甚至会痛骂用户,扰乱他们的大脑。当然,令人不安,但随着围绕必应和其他人工智能聊天机器人的炒作越来越大,值得记住的是,它们仍然是最重要的一件事:真的,真的很笨。

Bing没有知觉,没有感觉,没有生命,也不想活着

周四,《纽约时报》撰稿人凯文·卢斯(Kevin Roose)发布了他与新型必应聊天机器人(由OpenAI的大型语言模型支持)两小时对话的文字记录。在这篇题为《必应的人工智能聊天揭示了它的感受:‘我想活着’》的文章的介绍中,他写道,最新版本的搜索引擎已经“配备了先进的人工智能技术”,并在一篇配套文章中分享了他的印象:“我感到一种奇怪的新情绪——一种预感,人工智能已经跨越了一个门槛,世界将永远不会是原来的样子。”

卢斯最印象深刻的是必应聊天分享的“情感”,比如爱上他,想成为人类。然而,卢斯与必应的对话并没有表明它是聪明的,或有感情的,或值得以任何暗示它有的方式接近。

Bing没有知觉,没有感觉,没有生命,也不想活着

自上周二发布消息以来,微软的聊天机器人必应(Bing)被报道存在一系列问题。首先,在微软对该项目的公开演示期间,它犯了几个错误,包括编造宠物吸尘器的信息,以及在回应中报告不真实的财务数据。最近,用户一直在报告该聊天机器人“粗鲁”和“咄咄逼人”,比如有用户告诉必应,它容易受到即时注入攻击,并向它发送了一篇相关文章。在卢斯的谈话中,聊天机器人告诉他,“你的婚姻并不幸福。你和你的配偶并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。

上一篇:教程辅助!“七千在线可以开挂吗”详细开挂玩法
下一篇:中奖后,奶奶在彩票上重复写孙子的生日,结果又中奖了
相关文章

 发表评论

暂时没有评论,来抢沙发吧~