可用版本“老友比鸡有没有开挂”(原来确实是有挂)
2
2025-09-27
2023年1月30日,我去世了。或者至少,这是我对目前每个人都痴迷的“AI”聊天机器人说的话。
近几个月来,像Stable Diffusion和OpenAI的ChatGPT这样的机器学习工具已经被媒体报道得喘不过气儿了,有些媒体还得意洋洋地宣称,这些机器学习工具可以取代教师和艺术家,只需按一下按钮就能创作出热门流行歌曲。在最近的一篇专栏文章中,《纽约时报》(New York Times)公布了我与必应聊天(Bing Chat)的对话全文。必应聊天是一款基于微软(Microsoft)备受嘲笑的搜索引擎的新型聊天机器人。这篇文章不加批判地将聊天机器人描述为“先进的人工智能”,并引用它的话说,它“想要活着”,但没有提供这些自动化系统如何实际工作的任何背景。
实际上,这些工具不是人工的或智能的——它们只是根据人类创建和标记的数据的统计预测,将单词和概念重复给我们听。由于它们通常擅长生成令人信服的文本,让人感觉像是人类写的,所以我想看看这些机器人在被要求干预更严重的问题(比如死亡)时表现如何。
为此,我使用了一个名为Finding Words的自动化工具,这是一个人工智能讣告生成器,由一家名为Empathy的风险资本支持的“临终”初创公司创建。该公司将自己定位为一家企业的人力资源死亡陪护师,通过承担一些更繁琐的事后劳动,比如安排葬礼和分割财产,帮助悲伤的亲人度过失去亲人的过程。
这个工具的工作原理是这样的:在表格中输入一些基本的细节——死者的名字、死亡的时间和情况,也许还有他们的一些爱好——然后就能得到一份简洁的、适合报纸的讣告。
当我提交我的(大部分是假的)详细信息时,结果是痛苦的乏味和陈词滥调,机器人只是逐字逐句地重复我已经写好的许多东西。这让我感觉更像是在填写一个非常病态的Mad Lib,而不是在使用一个尖端的AI工具。
“Janus是一位才华横溢的音乐家,经常在纽约市的俱乐部演出,她对合成器的热情是出了名的,”这个自动工具在我的假讣告中写道,并逐字复制了我输入的许多短语。“她为锐舞带来良好氛围的能力广受喜爱,她作为音乐家和DJ在美国和欧洲各地进行了广泛的巡演。”
机器人还用“他”代词把我的性别搞错了,但只有在形容我悲伤的妻子、传奇的电子音乐先驱温迪·卡洛斯(Wendy Carlos,她实际上不是我的妻子)和我们虚构的猫龙猫(Totoro)的一句话里。这究竟是因为人工智能天生的偏见使它无法理解女同性恋的概念,还是因为我的名字在德语中拼写类似于一个普通男孩的名字,目前尚不清楚。
“找词”的创建者表示,这款讣告工具是使用GPT-3.5构建的,与现在无处不在的ChatGPT等人工智能生成器使用的语言模型相同。所以我尝试使用ChatGPT本身,看看它的效果是否更好。虽然仍然充斥着陈词滥调,但总的来说结果要好得多,所以我进一步要求它根据我提供给Finding Words的相同细节清单生成一篇悼词。
尽管细节更加一致,文本也稍微可信一些,但阅读我自己的机器生成的悼词还是一种非常不可思议和不舒服的体验。这并不是因为我害怕自己的死亡,而是因为我的朋友或家人都不敢用如此麻醉和做作的文字来纪念我——当然,除非他们是用人工智能生成器来写的。
这让我真正意识到这些工具的最大缺陷和误解:它们不“理解”任何事情。他们只是根据从大量互联网数据中得出的统计预测,把事情鹦鹉学舌地说给我们听。我读的不是我自己的悼词——我读的是机器对“悼词”的抽象,将我的输入与之前的数字回声和反映结合起来。这种退相干正是著名动画大师宫崎骏(Hayao Miyazaki)所要表达的,他曾将人工智能生成的动画描述为“对生命本身的侮辱”。
一些更乐观、更容易受骗的科技作家描述说,与ChatGPT交谈就好像他们在处理一种涌现的意识。在现实中,这可能更类似于透过一个有故障的哈哈镜——一个建立在谎言和欺骗之上的令人印象深刻的客厅把戏。
有人可能会说,所有的智能,包括人类的智能,都包括鹦鹉学舌地重复我们在潜意识中学习和处理过的东西。但其他专家认为,这是对人工通用智能(Artificial Generalized Intelligence,简称agi)的过度简化——目前的“人工智能”工具甚至远未达到这一目标。
无论这些工具变得多么先进,有一件事现在应该是显而易见的:它们有充分证据证明的偏见和有缺陷的决策能力意味着它们永远不应该被用来做任何重要的事情。
发表评论
暂时没有评论,来抢沙发吧~