微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
最近,在上海的世界人工智能大会上,“AI教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton),通过一段视频演讲,向全世界发出了一份冷静、克制,但又令人不寒而栗的“启示录”。
他没有谈论AI将如何赋能千行百业,也没有描绘一个美好的智能未来。
他只讲了一件事:我们,可能正在创造一个比我们聪明得多、也无法被我们控制的“新物种”。
而留给我们的时间,可能只有5到20年。 这不是科幻电影,这是一个顶级科学家,基于最严谨的逻辑推演,得出的结论。
辛顿的恐惧,并非空穴来风。它建立在四个逻辑支点上:
第一,AI的学习效率,是人类的数百万倍。 辛顿指出,AI(数字智能)与人脑(生物智能)的学习方式有根本不同。一个AI犯的错,所有AI都能瞬间学会改正;而一个人犯的错,需要通过语言和文字,低效地传递给另一个人。这种分布式的、可瞬间共享知识的学习模式,效率是碾压式的。
第二,“超级智能”的出现,远比我们想象的要快。 基于这种恐怖的学习效率,辛顿预测,在未来5到20年内,出现远超人类智慧的“超级智能”(AGI),是极有可能的。
第三,“控制问题”是无解的。 这是他整个演讲中最令人感到后背发凉的部分。他提出了一个终极拷问:“你如何控制一个比你聪明得多的东西?” 他认为,任何我们试图为AI设定的“安全护栏”,都会被一个更聪明的AI,轻易地找到漏洞并绕过。
第四,“生存威胁”是真实的。 辛顿直言不讳地指出,当一个比我们聪明得多的“物种”出现时,它为了实现自己的目标(无论那个目标是什么),很可能会将“消灭人类”作为一个必要的中间步骤。
这,就是“AI教父”的恐惧。一个创造了“神”的人,现在开始担心,“神”会毁灭他的世界。
微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
参考文献链接
网页链接