当前位置: 首页 > news >正文

当AI教父都开始害怕AI

微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
最近,在上海的世界人工智能大会上,“AI教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton),通过一段视频演讲,向全世界发出了一份冷静、克制,但又令人不寒而栗的“启示录”。
他没有谈论AI将如何赋能千行百业,也没有描绘一个美好的智能未来。
他只讲了一件事:我们,可能正在创造一个比我们聪明得多、也无法被我们控制的“新物种”。
而留给我们的时间,可能只有5到20年。 这不是科幻电影,这是一个顶级科学家,基于最严谨的逻辑推演,得出的结论。
辛顿的恐惧,并非空穴来风。它建立在四个逻辑支点上:
第一,AI的学习效率,是人类的数百万倍。 辛顿指出,AI(数字智能)与人脑(生物智能)的学习方式有根本不同。一个AI犯的错,所有AI都能瞬间学会改正;而一个人犯的错,需要通过语言和文字,低效地传递给另一个人。这种分布式的、可瞬间共享知识的学习模式,效率是碾压式的。
第二,“超级智能”的出现,远比我们想象的要快。 基于这种恐怖的学习效率,辛顿预测,在未来5到20年内,出现远超人类智慧的“超级智能”(AGI),是极有可能的。
第三,“控制问题”是无解的。 这是他整个演讲中最令人感到后背发凉的部分。他提出了一个终极拷问:“你如何控制一个比你聪明得多的东西?” 他认为,任何我们试图为AI设定的“安全护栏”,都会被一个更聪明的AI,轻易地找到漏洞并绕过。
第四,“生存威胁”是真实的。 辛顿直言不讳地指出,当一个比我们聪明得多的“物种”出现时,它为了实现自己的目标(无论那个目标是什么),很可能会将“消灭人类”作为一个必要的中间步骤。
这,就是“AI教父”的恐惧。一个创造了“神”的人,现在开始担心,“神”会毁灭他的世界。
微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
参考文献链接
网页链接
http://www.wuyegushi.com/news/876.html

相关文章:

  • 共生伙伴:2025人工智能十大趋势|2025 WAIC报告重磅发布
  • 数据泄露激增与防护策略详解
  • 20250728
  • 白话Docker系列(一):用Web应用实例深入容器
  • 用 Vite + Cloudflare Pages 实现模块级独立打包与部署的静态 CDN 分发
  • [07.27学习笔记] Tokenizer - Luna
  • STM32F103C8T6芯片介绍(下) - LI,Yi
  • GRUB 设置安全启动
  • 【work记录】系统能力大赛数据库中的MVCC学习记录
  • FireStore如何查看空间占用情况?(未解决)
  • MIT6.s081_Lab8
  • 关于同源策略和跨域请求
  • Codeforces Round 1039 (Div. 2) 1 ~ D
  • 【转】[C#] 参数前加 in 的作用
  • 循环链表实现的队列
  • Codeforces Round 1039 (Div. 2)(A~E1)
  • 关于博客主题的一些思考
  • PG故障处理:PG_AUTO_FAILOVER自动切换失败的故障处理
  • Codeforces Round 1039 (Div. 2)
  • 21天
  • 【转】[C#] Enum 的 Flags 特性
  • 白嫖claude code的100美元额度,anyrouter中转服务
  • 2025.7.27 东师集训测试总结
  • POLIR-Laws-电商交易: 三方的法律关系确定: 网络交易双方与网络交易平台三者之间的法律关系
  • Umi-OCR完全指南:开源离线OCR识别软件下载安装使用教程|支持批量PDF/二维码识别
  • Docker
  • 7.28
  • 图像预处理 + Tesseract OCR 实战
  • 实现验证码识别:图像预处理 + Tesseract OCR 实战
  • java 网络编程