我的征尘是星辰大海。。。
The dirt and dust from my pilgrimage forms oceans of stars...
-------当记忆的篇章变得零碎,当追忆的图片变得模糊,我们只能求助于数字存储的永恒的回忆
作者:黄教授
手机视频列表
AI的PC革命从8B模型开始
视频
音频
原始脚本
AI 的 PC 革命,从八 B 模型的本质突破,到重新定义每个人的智能未来。 我们所有的思考,并不是凭空提出八 B 模型这个概念,而是从一个真实、硬核、已经被验证的科研结论开始的。 清华刘洋团队发布的医疗问诊模型研究,直接打破了整个行业长久以来的迷信。 在专业、高风险、容错率极低的临床问诊场景里,8B 参数的小模型表现竟然全面超越了32B64B甚至70B 的超大模型。 这不是偶然,也不是优化技巧,而是一条被所有人忽略的真理。 模型的参数大小并不等同于智能高低,更大的模型往往只是堆积了更多知识,却没有真正提升推理、决策、问诊策略这类核心能力。 这个结论让我们重新回到一个最朴素的问题,智能到底是什么?它是记忆量还是思考能力?为了找到答案,我们把目光投向生物大脑,从自然界的智能规模里寻找参照。 人类大脑中负责高级认知、逻辑推理、决策判断的神经元数量大约是140 十亿。 黑猩猩、海豚这类高智商动物,全脑神经元不到1亿,猫狗更是只有千万级别。 对比之后会发现,8B参数的模型已经非常接近人类高级认知单元的数量级。 远远超过了所有具备复杂行为能力的动物,这意味着八 b 已经跨过了智能产生的关键门槛。 这也解释了为什么清华的医疗小模型能够打败大模型。 70B模型之所以更大,并不是因为它更聪明,而是它把海量的医学知识、论文、病例全部硬塞进参数里,变成了一个会背书的书呆子。 但真实问诊不是考试,不是比谁背的多,而是需要策略性提问,逐步收集信息,动态判断风险。 这些是能力,不是知识。 芭比模型虽然知识储量小,却通过训练方法掌握了真正的问诊逻辑,而不是依靠记忆。 这也证明了一个核心事实,超过芭比之后,模型参数增长带来的主要是知识记忆量的提升,而不是智能能与推理能力的飞跃。 能力和知识的分离,是我们整个体系的第一个关键闭环。 大模型的参数本质上是昂贵的内置硬盘,越大装的越多,但思考能力并不跟着线性增长。 而八 B 模型刚好拥有足够支撑推理、决策、沟通、规划的能力。 在网上增加参数,性价比快速下降,变成纯粹的资源浪费。 这里面还存在一个更 现实更关键的选择,知识究竟放在模型内部,还是放在外部存储、本地数据库或互联网中。 如果把知识全部塞进模型参数,推理速度可能稍快,但代价极高。 模型体积变大,对显卡、显存、算力的要求直线上升,硬件成本成倍增加。 如果把知识放在外部,哪怕查询速度稍慢一点,硬件成本会大幅下降。 知识更新也更简单、更灵活,不需要重新训练模型,更不会因为知识过期或错误而被迫整个模型重构。 这种成本差异是数量级的,也是民用智能必须选择轻量化路线的根本原因。 理解了这一点,我们就能看清人工智能真正的两条赛道,这两条赛道完全 独立,互不冲突,却被99%的人误解。 第一条赛道是超级智能,对应着国家与科技巨头投入的超大模型,参数不断向70B130B400B甚至万亿级攀升。 成本高达亿级、十亿级,需要超算集群、海量私有数 数据,顶尖团队才能支撑。 他的目标是全知全能,科研突破,战略决策,超越人类顶尖专家,就像国家级超级计算机,服务于人类的上限探索。 这条赛道永远不会停止,但它和普通人、普通企业、日常应用几乎没有关系。 目前头部 AI 公司一直在塑造一种叙事。 就是只要造出统一的超级 AGI 就可以包揽世界上所有智能任务。 就像70年代人们以为有了超级计算机,就可以解决一切计算问题一样。 但现实是,没有人会为了做一道小学数学题、写一段文案、整理一份表格,而去动用一台超级计算机。 AGI 公司希望人们相信,未来所有智能都应该在云端完成,就像今天使用搜索引擎一样便宜、方便、无需自建。 但这个叙事忽略了一个最致命的问题,普通人99%的工作根本不需要 AGI 级别的智能。 强行使用超级模型去处理日常琐事,成本与价值完全不匹配,是巨大的资源浪费。 第二条赛道是普通人智能,也就是我们所说的平价智能、产业智能、民用智能。 它的目标不是超越科学家,而是达到普通人80%~100%的智力水平。 能思考、能推理、能沟通、能办事,知识不够可以通过外部查询,成本极低,可以7×24小时不间断工作。 它要替代的不是顶尖专家,而是普通白领、客服、文案、行政、销售、基础设计、基础问诊、日常助理以及未来机器人的基础大脑。 人类社会真正需要的人工智能百分之九99都在这条赛道上。 我们必须明确一个最核心的问题,为什么偏偏是8B,而不是其他数字?这个数字不是拍脑袋决定的,而是有两层不可动摇的门槛共同锁定的。 第一层是个人民用设备的硬件门槛,8B模型刚好是一张高端消费级显卡,一台普通游戏主机就能流畅运行的最大规模。 再往上到10B16B甚至更大普通个人用户就承担不起硬件成本,也无法在本地部署。 作为个人 AI Agent。 模型必须能装进普通人的电脑、手机或推理机,这是民用智能的底线。 第二层是中小企业的准入门槛,8B 模型的训练不需要超算集群,几万到几十万的资金、几张消费级显卡,成熟的开源工具链就足够启动,资金、硬件、人才的要求都在中小公司可以跨越的范围内,正是这两层门槛让芭比成为了 AI 普及化的黄金分界点,让曾经只属于巨头的技术,真正飞入寻常百姓家。 这两条赛道的区别就像超级计算机和个人 PC,像发电厂和家用电器,像法拉利跑车和日常代步车。 没有人会用法拉利送外卖,用超级计算机做表格,用发电厂点亮一盏台灯。 同样,也没有人应该用 70B 千亿级的超级模型去处理普通文员的工作。 这是最基本的第一性原理,你要替代一个人的工作,你的成本绝对不能高于这个人,否则没有任何商业 价值,没有任何资本家会为此买单。 普通人的工作不需要全知全能,只需要满足最基本的能力阈值,这个阈值就是八 b 模型所在的位置。 他不需要把所有知识装进参数,因为知识在互联网上几乎是免费的,可以随时查询,可以放在外部知识库。 可以调用搜索引擎。 模型只需要具备理解问题、判断步骤、合理查询、整理结果的能力,就足够完成绝大多数日常任务。 知识是免费的、可查询的、可外置的,而能力才是我们真正需要购买的东西。 把知识外置,把能力留在小模型里,带来的不只是技术变化,更是整个行业权力结构的颠覆。 在70B时代,AI 是巨头垄断的游戏,只有拥有超算、私有数据、巨额资金的大厂才能参与。 小公司只能调用 API 被卡脖子、被收费、被控制。 但在八 B 时代,一切都变了。 八 B 模型的推理只需要高端消费级显卡就能运行,训练只需要几万到几十万的投入,普通中小企业、创业团队、个人开发者都能轻松参与。 国产芯片, AMD TPU NPU 等非 NVIDIA。 雅硬件也能充分发挥作用,不再被高端算力绑架。 这就是 AI 的民主化,是从巨型机时代 走向个人 PC 时代的历史重演。 当年个人电脑的出现,让计算机从机房走进千家万户。 今天的八 B 模型也将让 AI 从云端大厂的服务器走进每个人的电脑、手机、专用推理机。 也正是因为门槛足够低,大量中小公司才能涌入赛道,形成像当年 PC 市场一样,百花齐放、百家争鸣、激烈竞争、快速迭代的繁荣格局。
修正脚本
AI 的 PC 革命,从八 B 模型的本质突破,到重新定义每个人的智能未来。 我们所有的思考,并不是凭空提出八 B 模型这个概念,而是从一个真实、硬核、已经被验证的科研结论开始的。 清华刘洋团队发布的医疗问诊模型研究,直接打破了整个行业长久以来的迷信。 在专业、高风险、容错率极低的临床问诊场景里,8B 参数的小模型表现竟然全面超越了32B64B甚至70B 的超大模型。 这不是偶然,也不是优化技巧,而是一条被所有人忽略的真理。 模型的参数大小并不等同于智能高低,更大的模型往往只是堆积了更多知识,却没有真正提升推理、决策、问诊策略这类核心能力。 这个结论让我们重新回到一个最朴素的问题,智能到底是什么?它是记忆量还是思考能力?为了找到答案,我们把目光投向生物大脑,从自然界的智能规模里寻找参照。 人类大脑中负责高级认知、逻辑推理、决策判断的神经元数量大约是140亿。 黑猩猩、海豚这类高智商动物,全脑神经元不到1亿,猫狗更是只有千万级别。 对比之后会发现,8B参数的模型已经非常接近人类高级认知单元的数量级。 远远超过了所有具备复杂行为能力的动物,这意味着八B已经跨过了智能产生的关键门槛。 这也解释了为什么清华的医疗小模型能够打败大模型。 70B模型之所以更大,并不是因为它更聪明,而是它把海量的医学知识、论文、病例全部硬塞进参数里,变成了一个会背书的书呆子。 但真实问诊不是考试,不是比谁背的多,而是需要策略性提问,逐步收集信息,动态判断风险。 这些是能力,不是知识。 八B模型虽然知识储量小,却通过训练方法掌握了真正的问诊逻辑,而不是依靠记忆。 这也证明了一个核心事实,超过八B之后,模型参数增长带来的主要是知识记忆量的提升,而不是智能与推理能力的飞跃。 能力和知识的分离,是我们整个体系的第一个关键闭环。 大模型的参数本质上是昂贵的内置硬盘,越大装的越多,但思考能力并不跟着线性增长。 而八 B 模型刚好拥有足够支撑推理、决策、沟通、规划的能力。 再往上增加参数,性价比快速下降,变成纯粹的资源浪费。 这里面还存在一个更现实更关键的选择,知识究竟放在模型内部,还是放在外部存储、本地数据库或互联网中。 如果把知识全部塞进模型参数,推理速度可能稍快,但代价极高。 模型体积变大,对显卡、显存、算力的要求直线上升,硬件成本成倍增加。 如果把知识放在外部,哪怕查询速度稍慢一点,硬件成本会大幅下降。 知识更新也更简单、更灵活,不需要重新训练模型,更不会因为知识过期或错误而被迫整个模型重构。 这种成本差异是数量级的,也是民用智能必须选择轻量化路线的根本原因。 理解了这一点,我们就能看清人工智能真正的两条赛道,这两条赛道完全独立,互不冲突,却被99%的人误解。 第一条赛道是超级智能,对应着国家与科技巨头投入的超大模型,参数不断向70B130B400B甚至万亿级攀升。 成本高达亿级、十亿级,需要超算集群、海量私有数据,顶尖团队才能支撑。 他的目标是全知全能,科研突破,战略决策,超越人类顶尖专家,就像国家级超级计算机,服务于人类的上限探索。 这条赛道永远不会停止,但它和普通人、普通企业、日常应用几乎没有关系。 目前头部 AI 公司一直在塑造一种叙事。 就是只要造出统一的超级 AGI 就可以包揽世界上所有智能任务。 就像70年代人们以为有了超级计算机,就可以解决一切计算问题一样。 但现实是,没有人会为了做一道小学数学题、写一段文案、整理一份表格,而去动用一台超级计算机。 AGI 公司希望人们相信,未来所有智能都应该在云端完成,就像今天使用搜索引擎一样便宜、方便、无需自建。 但这个叙事忽略了一个最致命的问题,普通人99%的工作根本不需要 AGI 级别的智能。 强行使用超级模型去处理日常琐事,成本与价值完全不匹配,是巨大的资源浪费。 第二条赛道是普通人智能,也就是我们所说的平价智能、产业智能、民用智能。 它的目标不是超越科学家,而是达到普通人80%~100%的智力水平。 能思考、能推理、能沟通、能办事,知识不够可以通过外部查询,成本极低,可以7×24小时不间断工作。 它要替代的不是顶尖专家,而是普通白领、客服、文案、行政、销售、基础设计、基础问诊、日常助理以及未来机器人的基础大脑。 人类社会真正需要的人工智能99%都在这条赛道上。 我们必须明确一个最核心的问题,为什么偏偏是8B,而不是其他数字?这个数字不是拍脑袋决定的,而是有两层不可动摇的门槛共同锁定的。 第一层是个人民用设备的硬件门槛,8B模型刚好是一张高端消费级显卡,一台普通游戏主机就能流畅运行的最大规模。 再往上到10B16B甚至更大普通个人用户就承担不起硬件成本,也无法在本地部署。 作为个人 AI Agent。 模型必须能装进普通人的电脑、手机或推理机,这是民用智能的底线。 第二层是中小企业的准入门槛,8B 模型的训练不需要超算集群,几万到几十万的资金、几张消费级显卡,成熟的开源工具链就足够启动,资金、硬件、人才的要求都在中小公司可以跨越的范围内,正是这两层门槛让八B成为了 AI 普及化的黄金分界点,让曾经只属于巨头的技术,真正飞入寻常百姓家。 这两条赛道的区别就像超级计算机和个人 PC,像发电厂和家用电器,像法拉利跑车和日常代步车。 没有人会用法拉利送外卖,用超级计算机做表格,用发电厂点亮一盏台灯。 同样,也没有人应该用 70B 千亿级的超级模型去处理普通文员的工作。 这是最基本的第一性原理,你要替代一个人的工作,你的成本绝对不能高于这个人,否则没有任何商业价值,没有任何资本家会为此买单。 普通人的工作不需要全知全能,只需要满足最基本的能力阈值,这个阈值就是八B模型所在的位置。 他不需要把所有知识装进参数,因为知识在互联网上几乎是免费的,可以随时查询,可以放在外部知识库。 可以调用搜索引擎。 模型只需要具备理解问题、判断步骤、合理查询、整理结果的能力,就足够完成绝大多数日常任务。 知识是免费的、可查询的、可外置的,而能力才是我们真正需要购买的东西。 把知识外置,把能力留在小模型里,带来的不只是技术变化,更是整个行业权力结构的颠覆。 在70B时代,AI 是巨头垄断的游戏,只有拥有超算、私有数据、巨额资金的大厂才能参与。 小公司只能调用 API 被卡脖子、被收费、被控制。 但在八 B 时代,一切都变了。 八 B 模型的推理只需要高端消费级显卡就能运行,训练只需要几万到几十万的投入,普通中小企业、创业团队、个人开发者都能轻松参与。 国产芯片, AMD TPU NPU 等非NVIDIA异构硬件也能充分发挥作用,不再被高端算力绑架。 这就是 AI 的民主化,是从巨型机时代走向个人 PC 时代的历史重演。 当年个人电脑的出现,让计算机从机房走进千家万户。 今天的八 B 模型也将让 AI 从云端大厂的服务器走进每个人的电脑、手机、专用推理机。 也正是因为门槛足够低,大量中小公司才能涌入赛道,形成像当年 PC 市场一样,百花齐放、百家争鸣、激烈竞争、快速迭代的繁荣格局。
back to top