我的征尘是星辰大海。。。
The dirt and dust from my pilgrimage forms oceans of stars...
-------当记忆的篇章变得零碎,当追忆的图片变得模糊,我们只能求助于数字存储的永恒的回忆
作者:黄教授
手机视频列表
卿本凡间客岂敢称谪仙
视频
音频
原始脚本
别把大模型当天才,但它正在改写所有历史规律。 很多人一看到大模型在某些严苛测试上分数不高,就说它是假学习、只会记忆、泛化能力不行,甚至认为离真正的通用智能遥不可及。 但只要回到人类真实的学习方式、社会分工规律,再看 AI 自身的迭代逻辑,就会发现我们对智能的要求本来就没有那么高,而 AI 真正的潜力又远比历史上任何一次技术革命都更颠覆。 人类社会里,记忆力和模式识别就能解决绝大多数问题。 我们很多时候并不是真的理解一件事,而是记住答案、记住套路、记住题型。 换个参数、换个条件,能认出是同一类问题就能做出来。 能不能从零推导,原创突破?大概率不能。 但这就是正常人、普通学生、合格员工、资深专家的真实水平。 真正能没教就会,一眼看透本质的是天才,整个人类历史也寥寥无几。 现实世界对智能的标准非常朴素,教一遍就会是聪明,教两三遍会是正常人,教十遍八遍还不会才是笨,没教就会是天才。 人类99%的工作、学习、生活只需要前两集就足够。 我们不需要人人都是天才,社会也不需要人人都做原创突破。 放到大模型身上,标准也应该一样。 现在的大模型记忆力远超人类,模式识别稳定,给少量示例就能模仿,指出错误就能改正,已经达到教一两遍就会的优秀人类水平。 很多人批评他是在用天才的标准要求一个被训练成熟练工、专家、老技师的模型。 我们没按天才去训练他,就不该用天才去审判他。 更进一步看,人类没有任何两个个体完全相同,哪怕双胞胎也有差异。 基因重组、显影基因、成长环境、精力偏好,天然带来多样性、偏科、特长与短板。 大模型同样如此,训练数据不同、架构不同、目标不同、随机种子不同 推理温度不同,模型天然就应该各不相同,各有所长,各有所短。 人类一个班里学生都参差不齐,模型凭什么必须全能满分,完全一致?智能本身就是多维度互相冲突的,逻辑强的人,浪漫感性往往偏弱,理性严谨的人,跳跃创意往往不足,追求稳定可靠就要牺牲部分探索冒险。 就像田径十项全能,竞赛要轻快灵敏,田赛要重壮力量,两者天然矛盾。 也像坦克的火力、装甲、机动,三者不可兼得,只能取舍、平衡、偏科。 大模型也是一样,某些能力拉满,另一些必然妥协。 追求全能,最后往往样样平庸,成本爆炸。 从软件行业的历史规律看,更能说明问题。 Oracle 专注数据库,微软做 Windows 和 Office,谷歌做搜索、安卓、YouTube,应用软件千差万 辨别。 没有任何一家公司能把所有软件全包、全通、全领先。 市场有先入为主、生态壁垒、用户迁移成本,不是技术强就能通吃。 按这个逻辑推演,模型行业也应该走向分工、垂直、专业化、差异化,而不是一家通吃天下。 但这里必须有一个关键反转。 历史规律是人类时代的规律,不一定适用于 AI 自我迭代的时代。 我举一个最有代表性的例子,最早的 C 语言编译器,第一版非常粗糙,Bug 很多,能力很弱。 但它把人类从手写汇编解放到高级语言,实现了生产力的降维打击。 更重要的是,编译器第一个要改进的软件就是它自己,然后不断自我迭代,越来越完善。 再用更强的自己去开发更多工具、更好的环境、更复杂的系统,形成正向循环。 今天的大模型正在走完全一样的路。 我们不要天真的以为,大厂想的是一个模型通吃所有任务。 全世界最顶尖的公司和研究者不可能看不到能力互斥、生态分化、成本约束这些基本现实。 他们真正的目标非常清晰,非常务实,先造出一个足够完善、可自我迭代的根模型,就像当年第一个可用的 C 语言编译器。 这个根模型的第一用途不是立刻服务全社会,而是先替代公司内部的脑力劳动者。 这也是为什么各大软件公司一边疯狂投入 AI,一边大规模裁员。 一方面,内部替代可以立刻降低人力成本,提升利润,把省下来的钱继续投入大模型研发。 另一方面,自家员工就是最可控、最机密、最安全的小白鼠。 所有场景用例、优化方向都在内部验证,不会轻易暴露给竞争对手。 效果立竿见影,省去一个人,就是立刻省下一份成本,增加一份收益,同时完成一轮真实场景的迭代。 他们要的从来不是一个有性格、有情感、有偏好的人,而是一个无性别、无差别、标准化、可克隆、24小时不间断、永不罢工、没有工会、没有假期、没有情绪的高级脑力劳动力。 先跨过最低能力阈值,先做到比普通人强、比普通人稳,能替代大部分基 除脑力工作,个性、风格、情感、差异化,都不是现阶段的重点。 而一旦某一家公司率先跑出自我迭代闭环,历史规律就可能彻底失效。 根模型足够强,用根模型优化自己的架构、训练流程、算法、代码迭代速度更快、能力更强 在用更强的模型开发更专业的子模型。 代码模型、创意模型、法律模型、医疗模型、科研模型、艺术模型。 不是一个模型通吃,而是一家公司用母模型生出所有模型。 领先一点点,迭代就更快。 迭代更快,领先就更多。 领先越多,能力越强。 能力越强,迭代速度进一步指数级上升。 最终形成不可逆的垄断差距。 这不再是人力时代的比拼,不是工程师数量、加班时长、项目管理的竞争,而是蒸汽机对人力牛马的降维打击。 人类历史上没有任何一家公司能写完所有软件,但在 AI 时代,一家拥有自我迭代跟模型的公司。 理论上完全可能用模型自动生成、训练、维护所有模型,自动开发几乎所有软件,实现历史上从未有过的大一统。 回到最开始的问题,大模型是假学习吗?它的天花板在哪里?它会不会一家通吃?答案很清晰,大模型不是假学习,它只是在复刻人类最真实、最普遍、最实用的学习方式。 以记忆为基础,以模式识别为核心,以有限泛化解 解决绝大多数问题。 他不需要当天才,只需要做一个聪明可靠,学得快,用得上的高级劳动力。 按人类历史规律,模型必然分化,分工,多元,多家共存。 但按 AI 自我迭代,指数加速,降维打击的新逻辑存在颠覆所有历史规律的可能。 一家公司通过跟模型的自我迭代,最终垄断几乎所有政能能力,成为人类历史上第一个真正意义上全包式的智能供给者。 我们不用把大模型神话,也不用把它贬低为只会死机的机器。 它更像第一个可用的 C 语言编译器,起点粗糙、目标务实、路径清晰。 一旦形成自我迭代的闭环,就会以超出历史经验的速度彻底改变整个世界的生产力结构。 他不是天才,但他可能成为所有脑力劳动的底层编译器,改写我们过去几百年所熟悉的一切产业规律、竞争格局、社会分工。
修正脚本
别把大模型当天才,但它正在改写所有历史规律。 很多人一看到大模型在某些严苛测试上分数不高,就说它是假学习、只会记忆、泛化能力不行,甚至认为离真正的通用智能遥不可及。 但只要回到人类真实的学习方式、社会分工规律,再看 AI 自身的迭代逻辑,就会发现我们对智能的要求本来就没有那么高,而 AI 真正的潜力又远比历史上任何一次技术革命都更颠覆。 人类社会里,记忆力和模式识别就能解决绝大多数问题。 我们很多时候并不是真的理解一件事,而是记住答案、记住套路、记住题型。 换个参数、换个条件,能认出是同一类问题就能做出来。 能不能从零推导,原创突破?大概率不能。 但这就是正常人、普通学生、合格员工、资深专家的真实水平。 真正能没教就会,一眼看透本质的是天才,整个人类历史也寥寥无几。 现实世界对智能的标准非常朴素,教一遍就会是聪明,教两三遍会是正常人,教十遍八遍还不会才是笨,没教就会是天才。 人类99%的工作、学习、生活只需要前两类就足够。 我们不需要人人都是天才,社会也不需要人人都做原创突破。 放到大模型身上,标准也应该一样。 现在的大模型记忆力远超人类,模式识别稳定,给少量示例就能模仿,指出错误就能改正,已经达到教一两遍就会的优秀人类水平。 很多人批评它是在用天才的标准要求一个被训练成熟练工、专家、老技师的模型。 我们没按天才去训练它,就不该用天才去审判它。 更进一步看,人类没有任何两个个体完全相同,哪怕双胞胎也有差异。 基因重组、显隐基因、成长环境、精力偏好,天然带来多样性、偏科、特长与短板。 大模型同样如此,训练数据不同、架构不同、目标不同、随机种子不同,推理温度不同,模型天然就应该各不相同,各有所长,各有所短。 人类一个班里学生都参差不齐,模型凭什么必须全能满分,完全一致?智能本身就是多维度互相冲突的,逻辑强的人,浪漫感性往往偏弱,理性严谨的人,跳跃创意往往不足,追求稳定可靠就要牺牲部分探索冒险。 就像田径十项全能,竞赛要轻快灵敏,田赛要重壮力量,两者天然矛盾。 也像坦克的火力、装甲、机动,三者不可兼得,只能取舍、平衡、偏科。 大模型也是一样,某些能力拉满,另一些必然妥协。 追求全能,最后往往样样平庸,成本爆炸。 从软件行业的历史规律看,更能说明问题。 Oracle 专注数据库,微软做 Windows 和 Office,谷歌做搜索、安卓、YouTube,应用软件千差万别。 没有任何一家公司能把所有软件全包、全通、全领先。 市场有先入为主、生态壁垒、用户迁移成本,不是技术强就能通吃。 按这个逻辑推演,模型行业也应该走向分工、垂直、专业化、差异化,而不是一家通吃天下。 但这里必须有一个关键反转。 历史规律是人类时代的规律,不一定适用于 AI 自我迭代的时代。 我举一个最有代表性的例子,最早的 C 语言编译器,第一版非常粗糙,Bug 很多,能力很弱。 但它把人类从手写汇编解放到高级语言,实现了生产力的降维打击。 更重要的是,编译器第一个要改进的软件就是它自己,然后不断自我迭代,越来越完善。 再用更强的自己去开发更多工具、更好的环境、更复杂的系统,形成正向循环。 今天的大模型正在走完全一样的路。 我们不要天真的以为,大厂想的是一个模型通吃所有任务。 全世界最顶尖的公司和研究者不可能看不到能力互斥、生态分化、成本约束这些基本现实。 他们真正的目标非常清晰,非常务实,先造出一个足够完善、可自我迭代的根模型,就像当年第一个可用的 C 语言编译器。 这个根模型的第一用途不是立刻服务全社会,而是先替代公司内部的脑力劳动者。 这也是为什么各大软件公司一边疯狂投入 AI,一边大规模裁员。 一方面,内部替代可以立刻降低人力成本,提升利润,把省下来的钱继续投入大模型研发。 另一方面,自家员工就是最可控、最机密、最安全的小白鼠。 所有场景用例、优化方向都在内部验证,不会轻易暴露给竞争对手。 效果立竿见影,省去一个人,就是立刻省下一份成本,增加一份收益,同时完成一轮真实场景的迭代。 他们要的从来不是一个有性格、有情感、有偏好的人,而是一个无性别、无差别、标准化、可克隆、24小时不间断、永不罢工、没有工会、没有假期、没有情绪的高级脑力劳动力。 先跨过最低能力阈值,先做到比普通人强、比普通人稳,能替代大部分基础脑力工作,个性、风格、情感、差异化,都不是现阶段的重点。 而一旦某一家公司率先跑出自我迭代闭环,历史规律就可能彻底失效。 根模型足够强,用根模型优化自己的架构、训练流程、算法、代码,迭代速度更快、能力更强,再用更强的模型开发更专业的子模型。 代码模型、创意模型、法律模型、医疗模型、科研模型、艺术模型。 不是一个模型通吃,而是一家公司用母模型生出所有模型。 领先一点点,迭代就更快。 迭代更快,领先就更多。 领先越多,能力越强。 能力越强,迭代速度进一步指数级上升。 最终形成不可逆的垄断差距。 这不再是人力时代的比拼,不是工程师数量、加班时长、项目管理的竞争,而是蒸汽机对人力牛马的降维打击。 人类历史上没有任何一家公司能写完所有软件,但在 AI 时代,一家拥有自我迭代根模型的公司。 理论上完全可能用模型自动生成、训练、维护所有模型,自动开发几乎所有软件,实现历史上从未有过的大一统。 回到最开始的问题,大模型是假学习吗?它的天花板在哪里?它会不会一家通吃?答案很清晰,大模型不是假学习,它只是在复刻人类最真实、最普遍、最实用的学习方式。 以记忆为基础,以模式识别为核心,以有限泛化解决绝大多数问题。 它不需要当天才,只需要做一个聪明可靠,学得快,用得上的高级劳动力。 按人类历史规律,模型必然分化,分工,多元,多家共存。 但按 AI 自我迭代,指数加速,降维打击的新逻辑存在颠覆所有历史规律的可能。 一家公司通过根模型的自我迭代,最终垄断几乎所有智能能力,成为人类历史上第一个真正意义上全包式的智能供给者。 我们不用把大模型神话,也不用把它贬低为只会记忆的机器。 它更像第一个可用的 C 语言编译器,起点粗糙、目标务实、路径清晰。 一旦形成自我迭代的闭环,就会以超出历史经验的速度彻底改变整个世界的生产力结构。 它不是天才,但它可能成为所有脑力劳动的底层编译器,改写我们过去几百年所熟悉的一切产业规律、竞争格局、社会分工。
back to top