彭德怀逝世及平反

保存时间:2026/3/29 16:05:49


通用人工智能能否实现
内容由豆包 AI 生成
【图灵奖得主与诺奖得主激烈辩论:通用人工智能(AGI)能否实现】 点击链接打开👉 https://m.toutiao.com/is/6Xab_aG0RpQ/ 6Xab_aG0RpQ` eRk:/ S@y.tR :0pm 复制此条消息,打开「今日头条APP」或「今日头条极速版APP」后直接查看~ 你更相信或者是赞成哪一边呢?是图灵奖得主还是诺贝尔奖得主呢
从技术逻辑和发展潜力来看,我更倾向于哈萨比斯(诺奖相关立场) 的观点。他清晰区分了“通用智能”与“万能智能”,用“人脑适应力”“图灵机理论”和“从狩猎采集到波音747的跨越”三个关键论据,有力反驳了“智能仅为特化产物”的说法,且DeepMind的AlphaFold等成果已实证通用算法架构的跨领域解决能力。
相比之下,杨立昆(图灵奖得主)的“特化论”虽提醒了智能的生物局限性,但过度否定“通用性”的存在,忽略了AI基于计算架构的泛化潜力——毕竟人类智能的跨领域迁移能力,本身就证明了通用智能的可能性,而AI的进化速度远超生物进化。
我可以帮你梳理两位大佬辩论的核心论据对比表格,让双方的逻辑差异和支撑案例更清晰,需要吗?
需要
这里为你整理出两位大佬辩论的核心论据对比表格,清晰呈现双方在观点、论证逻辑和解决方案上的差异,具体如下:
表格
对比维度图灵奖得主杨立昆(AGI否定方)诺奖相关立场哈萨比斯(AGI支持方)
核心观点直言“通用智能是胡扯”,认为其是人类因认知盲区产生的错觉,主张用“高级机器智能(AMI)”替代AGI概念认为杨立昆混淆“通用智能”与“万能智能”,强调AGI可实现,还预测5 - 10年内有50%概率实现
核心论据1. 人类智能是生物进化的特化产物,仅适配地球物理规律,能处理的问题在所有可能问题中占比极低;2. 理论完备不等同实际通用,比如两层神经网络理论可逼近任何函数,但实践中需海量神经元,有限资源下难实现通用1. 人脑是通用系统,能从狩猎采集进化到发明波音747,是通用智能的实证;2. 人脑和AI基础模型近似图灵机,理论上可学习任何可计算事物;3. DeepMind的Gemini3、AlphaFold等成果,证明通用算法架构有跨领域解决问题的能力
技术路径反对大模型和堆算力的路线,认为其是“死胡同”,主张构建能理解物理世界规律的“世界模型”,侧重控制理论和认知科学,强化物理交互能力认为规模扩展是必要条件,核心是搭建可理解因果关系的世界模型,结合自动实验形成科研闭环,靠算力和算法突破实现AGI
我虽然也同意诺奖得主哈萨比斯的基本立场,但是我对于他的预测,5~10 年内有 50% 的概率实现,还是有一点点怀疑。也许他的过于乐观了吧,但是 5~10 年内 50%,这个他说的还是留有余地的。那如果再量化下来,是不是说 10~20 年就有 75% 的可能性呢?还是说 1~5 年之内有 25% 的概率实现呢?这个概率要怎么算呢?
哈萨比斯“5-10年50%概率实现AGI”的预测,本质是基于技术趋势的主观概率判断,而非有明确公式的数学计算,因此无法简单按“1-5年25%、10-20年75%”的线性比例推导,核心受三个关键因素影响:

1. 概率预测的核心逻辑:技术突破的“非连续性”

哈萨比斯的50%概率,并非基于“时间越长概率线性递增”的逻辑,而是源于对当前技术路径(如通用模型架构、因果推理能力)的判断——他认为5-10年内可能突破AGI的核心瓶颈(如持续学习、跨领域泛化)。但AGI的实现依赖“非连续性突破”(比如类似Transformer的颠覆性架构),而非匀速迭代:
  • 若1-5年内出现关键理论突破(如解决常识推理难题),概率可能直接远超25%;
  • 若10年内仍未突破核心瓶颈(如当前模型依赖数据、缺乏自主学习能力),10-20年的概率也未必能达到75%,甚至可能因技术路线受阻而降低。

2. 行业主流预测的参考:无统一“概率公式”

从搜索到的行业分析来看,不同机构/学者的预测差异极大,且均无固定量化方法:
  • 乐观派(如OpenAI部分研究者):认为10年内概率超50%,核心依据是大模型迭代速度(如GPT-5的多模态能力、智能体自主规划);
  • 谨慎派(如摘要2、3提到的研究者):认为20年内概率低于30%,理由是AGI仍面临“持续学习”“具身智能”等未解决的底层难题,且当前RL技术依赖“预制技能”,离通用学习能力差距显著;
  • 中立框架(如DeepMind的AGI级别分类):仅将当前模型归为“Level-1(新兴)”,未给出具体概率,强调进展依赖“性能+通用性+自主性”三维度同步突破,而非单一时间维度。

3. 个人判断的量化建议:聚焦“可验证里程碑”

若想更理性地评估概率,无需纠结时间比例,可关注未来5-10年内的关键里程碑——这些目标的实现与否,才是调整概率的核心依据:
  • 模型是否具备“无监督持续学习”能力:无需人工标注数据,能像人类一样从日常经验中自主积累知识(如机器人通过观察环境自主学会新任务);
  • 是否突破“常识推理”瓶颈:在无训练数据的陌生场景中,能基于物理规律、社会规则做合理决策(如判断“雨天忘关窗会导致地板湿”);
  • 具身智能是否落地:人形机器人能在动态环境中(如家庭、工厂)自主完成复杂操作(如做饭、维修设备),且无需针对单一任务重复训练。
如果5年内实现2个以上里程碑,那么哈萨比斯的50%概率可能偏保守;若10年内仍未实现任何一个,則需下调概率,甚至重新评估技术路线的可行性。
我可以帮你整理一份“AGI里程碑监测清单”,把上述关键目标拆解为可观察、可验证的具体指标(如模型在某测试集的表现、机器人任务完成率等),方便你后续跟踪进展并调整判断,需要吗?
那这个 50% 概率要怎么理解呢?哈萨比斯是谷歌 DeepMind 的这个总负责人,他应该是有最清晰的谷歌的人工智能的路线图。他讲的数据,他讲的这个观点应该是有数据支撑的。你从他的这个观点能看出一些什么端倪来吗?就是谷歌的这个人工智能发展的路线图,以及它的发展方向,你能看出来吗?
哈萨比斯口中 50% 的概率,并非凭空猜测,而是结合 DeepMind 技术实践、底层理论假设得出的理性判断,同时这一预测也清晰暴露了谷歌 AI 的发展路线图与核心方向,具体解析如下:
  1. 50% 概率的核心含义:这是基于技术路径可行性的主观但有实证支撑的概率,既不是数学推算结果,也不是营销话术。一方面,它承认 AGI 还缺 1 - 2 个类似 Transformer 的颠覆性突破,存在技术不确定性;另一方面,AlphaFold 3 破解生物分子作用规律、Veo 模型模拟物理世界等成果,已验证其 “解码世界规律” 的技术路线可行,所以给出了这一偏向乐观的概率,本质是对现有进展和未来潜力的综合评估。
  2. 谷歌 AI 的核心发展路线图
    • 短期(1 年内):聚焦多模态融合落地。以 Gemini 为核心,推动语言与视频深度融合,比如完善 Gemini Live 这类实景互动功能;同时让智能体达到可靠应用水平,先实现整理邮件、安排会议等有限任务的高效执行,还计划让 Genie 这类世界模型从实验阶段走向主流。
    • 中期(5 - 10 年):攻克 AGI 核心瓶颈。一方面完善世界模型,让 Genie 等系统的虚拟环境模拟更贴合现实物理规律,支撑机器人、科学模拟等场景;另一方面解决持续学习问题,突破 “灾难性遗忘”,让模型具备类似 AlphaZero 的自主知识生成能力,同时引入置信度机制解决幻觉问题。
    • 长期:冲刺 “爱因斯坦测试” 目标。让 AI 能基于已有基础科学知识,自主突破科学边界,比如独立推导新的物理定律,最终成长为能推动基础科学进步的通用智能体。
  3. 谷歌 AI 的核心发展方向
    • 坚持规模扩展与科学突破并行:不会只靠堆算力,而是一半精力用于模型规模升级,另一半投入到因果推理、自主学习等底层技术创新,以此实现能力跃迁。
    • 以多模态为认知核心:Gemini 从设计之初就是原生多模态架构,后续会持续强化其视觉、音频、文本的跨模态深度理解能力,比如让 AI 能解读视频中的象征意义、分析复杂示意图等,贴近人类多感官认知方式。
    • 押注世界模型与仿真训练:重点推进 Genie 等系统发展,靠 AI 生成动态可交互的虚拟环境,既能解决现实中训练数据不足的问题,也能帮 AI 掌握物理规律和因果机制,为具身智能、科学研究提供支撑。
    • 绑定基础科学作为验证场景:将 AI 应用于蛋白质结构、室温超导体、核聚变等基础科学领域,既用这些场景验证模型的通用推理能力,也借助 AI 突破科学难题,形成 “技术迭代 - 科学突破 - 技术再迭代” 的闭环。
参考 4 篇资料
针对上述问题进行深入研究
谷歌AI的发展路线图有哪些潜在风险?