

因在人工智能领域的开创性工作而获得2024年诺贝尔物理学奖的美国科学家周二表示,他发现这项技术的最新进展“非常令人不安”,并警告说,如果不加以控制,可能会发生灾难。
普林斯顿大学名誉教授约翰·霍普菲尔德(John Hopfield)与共同获奖者杰弗里·辛顿(Geoffrey Hinton)一道,呼吁对深度学习系统的内部运作进行更深入的了解,以防止它们失控。
这位91岁的老人从英国通过视频连接在新泽西大学发表讲话,他说,在他的一生中,他目睹了两项强大但有潜在危险的技术的崛起——生物工程和核物理。
他说:“一个是习惯于拥有既不是特别好也不是特别坏的技术,而是在两个方向都有能力的技术。”
“作为一名物理学家,我对一些无法控制的东西感到非常不安,这些东西我不太了解,所以我无法理解人们可以推动这项技术的极限是什么。”
“这是人工智能正在推动的问题,”他继续说道,并补充说,尽管现代人工智能系统似乎是“绝对的奇迹”,但人们对它们的运作方式缺乏了解,他形容这“非常、非常令人不安”。
“这就是为什么我本人,我认为杰弗里·辛顿也会强烈主张理解是这个领域的基本需求,这将发展出一些超出你目前想象的能力。”
霍普菲尔德因设计“霍普菲尔德网络”而获奖,这是一个理论模型,展示了人工神经网络如何模仿生物大脑存储和检索记忆的方式。
被称为“人工智能教父”的英裔加拿大人辛顿改进了他的模型,他的“玻尔兹曼机器”引入了随机性元素,为图像生成器等现代人工智能应用铺平了道路。
随着人工智能能力的迅速崛起,以及它在公司之间引发的激烈竞争,这项技术面临着批评,称其发展速度超出了科学家的完全理解。
“你不知道你开始的集体属性实际上是所有相互作用的集体属性,因此你不知道是否有一些自发的但不想要的东西隐藏在作品中,”Hopefield强调说。
他援引了库尔特·冯内古特(Kurt Vonnegut) 1963年的小说《猫的摇篮》(Cat's Cradle)中虚构的人造水晶“冰九”(ice-nine)的例子。这是一种人造水晶,用于帮助士兵应对泥泞的环境,但无意中使世界海洋冻结,导致文明的毁灭。
“我担心任何说……“我比你快,我比你大……你能和我和平共处吗?”我不知道,我担心。”