阿达尼集团将在北阿坎德邦投资2500亿卢比,用于水泥和智能电表
8
2025-09-11
人工智能世界末日的场景比比皆是,因此,据彭博社报道,另一位人工智能专家直截了当地预测,这项技术将意味着我们所有人的死亡。
这一次,敲响警钟的不是所谓的人工智能教父,也不是其他的人工智能教父(有委员会决定这些事情吗?),而是备受争议的人工智能理论家和煽动者埃利泽·尤德科夫斯基(Eliezer Yudkowsky),他曾呼吁轰炸机器学习数据中心。很有个性。
“我认为我们还没有准备好,我认为我们不知道我们在做什么,我认为我们都会死,”尤德科夫斯基在彭博社系列节目《人工智能现实》(AI IRL)的一集中说。
关于人工智能末日的一些信念比其他的更荒谬,但至少尤德科夫斯基几十年来一直认真地坚持着这些信念。最近,随着人工智能行业以极快的速度发展,他的人工智能末日论变得更加流行,这让铺平道路的杰出计算机科学家们感到内疚。
这些担忧——尽管通常不那么激进——已经得到了人工智能行业的领导者和专家的回应,他们中的许多人支持暂时暂停推进技术超过GPT-4的能力,GPT-4是OpenAI的ChatGPT的大型语言模型。
事实上,这个模型正是尤德科夫斯基主要关注的问题之一。
Yudkowsky声称:“目前的情况是,我们几乎不知道GPT-4中发生了什么。”“我们有理论,但没有能力实际观察大量的小数矩阵的乘法和加法,以及这些数字的含义。”
这些担忧无疑是值得考虑的,但正如一些批评者所观察到的,它们往往会分散人们对人工智能更直接但相对平凡的后果的注意力,比如大规模抄袭、取代人类工人,以及巨大的环境足迹。
人工智能初创公司hug Face的研究员萨沙·卢奇奥尼在接受彭博社采访时表示:“这种谈话很危险,因为它已经成为谈话的主导部分。”
她补充说:“那些火上浇油的公司正在以此作为逃避责任的方式。”“如果我们谈论的是生存风险,我们就不会考虑问责制。”
没有人比OpenAI首席执行官萨姆·奥特曼更能概括这种行为了,他自称是一个生存主义者,他一直在谈论他对自己正在构建的人工智能的恐惧和矛盾,以及它如何导致大规模人类灭绝或以其他方式摧毁世界——当然,这一切都没有阻止他的前非营利公司从微软那里获得数十亿美元。
虽然尤德科夫斯基肯定也犯了预言世界末日的错误,但他的批评至少看起来是出于善意。
发表评论
暂时没有评论,来抢沙发吧~