国内已有不少企业在大模型长上下文技术上取得显著进展,以元象、字节跳动为代表的企业通过技术创新实现了超长文本处理能力,其中豆包大模型的长上下文技术表现尤为突出。以下是具体介绍:
国内企业在长上下文技术上不断突破,采用的核心技术路径与国际主流方向一致,但在细节实现和开源生态建设上有自身特色:
- 架构与算法优化:元象的 XVERSE-Long-256K 通过 “ABF + 继续预训练”“NTK+SFT” 的技术组合,实现无损长程注意力机制,在 256K 上下文窗口下仍保持 99.67% 的信息提取准确率。字节跳动开源的 SeedOSS 系列模型采用 RoPE 位置编码、GQA 注意力机制等架构,原生支持 512K 上下文窗口,可一次性处理 1600 页文本数据。
- 开源生态突破:元象发布全球首个 256K 上下文开源大模型,填补了国产开源长文本模型的空白,且支持 40 多种语言,可处理俄语、德语等多语种长文档。字节跳动的 SeedOSS 系列采用 Apache2.0 开源协议,提供 36B 等多版本模型,支持量化部署降低成本,在 7 项基准测试中超越同量级开源竞品。
- 应用场景落地:国内长上下文模型已在金融、司法、科研等领域落地,例如元象模型可分析几十万字的法律文书、金融报告,豆包大模型能快速处理上百篇学术报告,生成论文综述或市场报告。
豆包在长上下文处理能力上达到业界领先水平,并非单纯依赖上下文浓缩,而是通过多维度技术创新实现:
- 超长上下文规模:豆包大模型的上下文窗口已提升至 300 万字,每百万 tokens 处理延迟仅 15 秒,可一次性读取上百篇学术报告;其 1.6 版本支持 256K 推理上下文,能轻松分析 30 万字文档。
- 核心技术支撑:采用 STRING 等上下文关联数据算法,提升模型对海量外部知识的利用效率;通过稀疏化及分布式方案优化计算流程,将时延降至十秒级;字节跳动开源的 SeedOSS 系列模型(与豆包技术同源)采用 GQA 注意力机制、RoPE 位置编码等架构,进一步强化长序列处理能力。
- 成本与性能平衡:豆包 1.6 版本通过区间定价策略降低成本,每百万 tokens 输入低至 0.8 元,输出仅 2 元,综合成本为 1.5 版本的 1/3,同时保持高性能,例如其 1.6-thinking 版本在逻辑推理测评中表现优异,可自动解决工程编程难题。
国内大模型同样采用 “分层记忆 + 动态调度” 的模式,而非单纯依赖上下文浓缩:
- 元象、豆包等模型会对早期信息进行压缩存储,但同时保留即时工作记忆以确保当前内容的细节精度。例如豆包在分析长文档时,既能通过压缩记忆把握全文逻辑,又能精准引用近期内容的细节数据。
- 部分模型结合检索增强技术(RAG),将长文本结构化后存入外部知识库,需用时通过智能检索调用相关片段,进一步提升长上下文处理效率。
国内大模型的长上下文技术并非业界秘密,企业通过开源、技术文档等形式公开核心思路:
- 元象在开发者社区公开 XVERSE-Long-256K 的训练教程和技术解析,字节跳动开源 SeedOSS 系列模型的架构细节和预训练数据规模。
- 核心技术原理(如 GQA 注意力、RoPE 编码、稀疏化算法)与国际主流方案一致,差异主要体现在工程优化和训练策略上,例如豆包的分布式计算方案、元象的无损注意力训练方法等。
相关视频
AI的记忆有多长?前沿模型为何都在PK上下文长度 最近OpenAI的GPT 4.1和Llama4 Scout都是主打长上下文,突破了以往很多模型128k或200k的限制,来到100万,甚至1000万的上下文窗口。今天来系统聊聊什么是大模型的上下文?为什么突破增加上下文窗口那么难?以及接下来还有哪些新的可能性。#AI #上下文 #GPT4.1 #Llama4 #模型上下文
几百万的吹上下文长度,这是对上下文长度这个参数有什么误解吗 #科技 #人工智能 #科普 #涨知识
如何让AI写长篇小说,还能保持上下文剧情连贯 10分钟带你了解在AI长篇内容写作中(如长篇小说,长篇文章,长篇报告)如何解决上下文内容丢失和不连贯的问题。
#AI #AI写作 #ai小说推文 #小说 #prompt
关于大模型上下文长度限制的原因与解决方案,这是和豆包讨论学习的备忘录
不会吧!创建专属AI智能体这么简单了? 卷大模型的上下文长度已经不香了,AI智能体才是最新风向标,新王道!赶紧看看怎么创建吧,队长手把手教你,2分钟搞定。#人工智能#智能体#AI#kimi#文心一言
100万Token窗口长度的大模型背后实现技术原理 #大模型#transformer详解
Kimi 200 万字上下文,阿里通义 1000 万字文档 #知识科普 #阿里通义 #ai #大语言模型 #rag
一键对1万多字的长文本进行润色,可以调用海外顶尖AI大模型 #自媒体 #短故事 #小说改写 #小说改写软件
国内AI大模型,疯狂“卷”长文本 #犀牛卫 #科技 #AI大模型 #chatgpt #openai
这家公司押注“AI记忆层”,正在悄悄改写人类与AI的交互方式 #ai #大模型 #ai工具 #ai创业 #上下文工程 公司叫iForgot,这段时间看到让人眼前一亮
智能体上下文压缩-裁剪和摘要 *🔥 如何在不牺牲Agent智能度的前提下,把送进 LLM 的 token 控制在上下文窗口以内,让智能体既“记性好”又“胃口小”。
*📑 目录
*1️⃣ 为什么要压缩上下文
*2️⃣ 上下文压缩核心机制
*3️⃣ 上下文压缩两大常用策略
*4️⃣ 裁剪策略的示例代码
*5️⃣ 摘要策略的示例代码
*6️⃣ 总结
#AI技术 #大模型技术 #人工智能 #编程
阿里开源强化学习长文本推理模型:业界新标杆 阿里开源全球首个强化学习训练的长文本推理模型QwenLong-L1-32B,支持13万tokens上下文窗口,在七大基准测试中超越多款旗舰模型,结合创新算法与分阶段训练技术,推动大模型向深度场景化迈进。
#人工智能 #通义千问
Jmanus无限上下文是怎么回事? #java #程序员 #Jmanus #Ai大模型
将LLaMA3上下文长度从8K扩展到超过100万 #小工蚁
揭秘大模型“长记性”的秘密:长上下文技术全解析 #科技 #人工智能 #AI科普进行时 长上下文会淘汰RAG吗?长上下文为什么对编程如此重要?
90%人不知道的 AI运行真相 大模型究竟是如何工作的?#人工智能 #AI#大模型
视觉能力倍增!Qwen3-VL史诗级更新多维度测评 🚀多维度客观测评Qwen3-VL视觉大模型!扫描版PDF秒变Markdown、潦草手写体100%识别、UI截图复现秒变前端代码、手写潦草字完美识别、视频人物关系智能分析,效果好到媲美Gemini2.5
🚀视频简介:
✅【客观测评】阿里巴巴Qwen3-VL横空出世,235B参数多模态大模型!一键图片转代码、模糊古籍完美识别、8分钟视频瞬间理解!
⚡️ 本期视频详细演示了阿里巴巴最新发布的Qwen3-VL多模态大模型的强大能力!这款拥有235B参数、采用MoE架构、支持256K上下文窗口的AI巨兽,在视觉理解方面达到了业界顶尖水平。
🎯 主要测试内容包括:
图像转代码能力 - 完美复现网页和移动端界面
OCR识别能力 - 准确识别繁体字、手写体、模糊扫描件
PDF文档处理 - 将模糊扫描版PDF转换为Markdown格式
视频理解能力 - 分析8-9分钟长视频内容,精准定位人物出现时间
✨ 模型不仅能识别极其模糊的古籍文字,还能深度理解视频内容,甚至判断视频中的人物关系。
🔥🔥🔥时间戳:
00:00 开场介绍 - 阿里巴巴发布Qwen3-VL多模态大模型
00:27 模型参数详解 - 235B参数MoE架构及256K上下文窗口
01:03 核心功能概述 - GUI自动化、视觉识别、OCR等能力介绍
01:36 测试准备 - Qwen3-VL Instruct版本使用指南
01:55 图像转代码测试 - AI生成视频网站搜索页面复现演示
02:59 移动端页面复现 - 手机界面完美还原测试
03:32 OCR能力测试 - 古书繁体手写字识别演示
05:03 模糊PDF转换 - 扫描版文档转Markdown格式测试
07:06 视频理解测试1 - 8分钟AutoGen框架介绍视频分析
08:54 视频理解测试2 - Xcode开发教程视频内容提取
09:58 人物识别定位 - 视频中特定人物出现时间精准定位
10:30 视频内容深度理解 - 人物关系判断和互动分析
11:36 总结评价 - 模型综合能力总结
#Qwen3VL #Qwen3 #Qwen #AIGC #AI
50万字一“脑”搞定! 360Zhinao-7B-Chat-360K终结长文本处理噩梦 #AI #大模型 #360 #开源 #算家云