源 3.0 是 MoE 架构的多模态大模型,其创新了逐层自适应专家裁剪算法(LAEP),实现模型参数量降低 33%,预训练性能与算力效率均提升 49%;面向企业级场景,在文本检索、多模态表格分析、复杂表格理解与摘要生成等能力上,性能超过 OpenAI GPT-5.1。
创新的技术架构,带来卓越的性能表现和极致的算力效率
每token的算力需求仅为Llama3-70B的1/19,在相同算力下,平均精度达到Llama3-70B的18.8倍,大幅降低推理成本。
在数理逻辑、代码生成、知识问答等多个维度精度对标Llama3-70B,用更少的资源实现更强的能力。
基于LFA+Attention Router的创新MoE模型结构,通过智能的专家选择机制,实现参数与性能的最优平衡。
训练数据扩充至2000B Tokens,包含600+种代码数据、专业领域语料,以及超过1000万条高质量合成数据。
Humaneval代码生成能力通过Few-shot提示从74.4%提升至78.1%,展现出色的上下文学习能力。
模型全面开源,免费可商用,无需申请授权,助力开发者和企业快速构建AI应用。
企业级核心任务性能超越 OpenAI GPT-5.1,综合实力领跑行业主流大模型
| Models | Avg. All | D2D | QuAC | QReCC | CoQA | DoQA | CFQA | SQA | TCQA | HDial | INSCIT | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | Acc. % | ||
| DeepSeek-V3 | 50.47 | 31.59 | 28.86 | 49.31 | 76.98 | 26.11 | 83.49 | 82.13 | 46.69 | 47.43 | 32.08 | |
| DeepSeek-R1 | 39.42 | 21.46 | 22.23 | 42.41 | 62.53 | 24.68 | 81.48 | 82.06 | 30.74 | 37.97 | 28.68 | |
| OpenAI GPT-4o | 50.54 | 32.76 | 26.56 | 49.3 | 76.11 | 28.78 | 81.85 | 81.14 | 49.75 | 41.29 | 26.69 | |
| OpenAI GPT-o3 | 44.06 | 23.05 | 20.82 | 40.42 | 69.42 | 18.56 | 67.75 | 86.71 | 45.85 | 41.29 | 26.69 | |
| OpenAI GPT-5.1 | 46.58 | 28.98 | 22.52 | 45.78 | 68.98 | 22.06 | 77.7 | 82.52 | 45.21 | 45.65 | 26.42 | |
| Yuan3.0-1010B | 62.26 | 40.74 | 36.96 | 41.74 | 89.86 | 64.72 | 76.81 | 89.52 | 73.53 | 73.45 | 38.35 | |
| Models | Avg. All | 问答 | 事实核查 | TSD | TCE | TCL | MCD | RCE | |||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| TABMWP | WTQ | HiTab | TAT-QA | FeTaQA | TabFact | InfoTabs | HiTab_T2T | Rotowire | WikiBIO | ||||||||
| Acc. % | Acc.% | Acc.% | Acc.% | BLEU | Acc.% | Acc.% | BLEU | BLEU | BLEU | Row. % | Col. % | Acc.% | Acc.% | F1% | Row F1% | ||
| GLM-4.5V | 52 | 88.21 | 77.42 | 51.52 | 62.69 | 5.25 | 89.44 | 79.48 | 5.17 | 4.48 | 2.69 | 47.4 | 89.7 | 52.74 | 50.84 | 43.47 | 50.77 |
| OpenAI GPT-4V | 29.9 | 60.5 | 48 | 27.5 | 32.5 | 11.04 | 45.5 | 65.6 | 2.98 | 4.23 | 1.94 | 19 | 38 | 14.36 | 27.91 | 3.5 | 48.52 |
| OpenAI GPT-5.1 | 36.49 | 62.45 | 64.02 | 19.87 | 19.74 | 7.11 | 57.69 | 64.19 | 1.39 | 1.54 | 3.13 | 44.33 | 94.85 | 29.61 | 16.79 | 13.38 | 42.11 |
| Yuan3.0-1010B | 67.5 | 94.29 | 78.87 | 79.51 | 74.35 | 54.72 | 89.28 | 84.98 | 36.03 | 14.68 | 13.59 | 63 | 87.9 | 66.93 | 74.48 | 73.82 | 67.55 |
| Models | Avg. All | HiTab | WTQ | FeTaQA | TabFact | InfoTabs |
|---|---|---|---|---|---|---|
| Acc. % | Acc. % | Acc. % | BLEU | Acc. % | Acc. % | |
| DeepSeek-R1 | 73.88 | 82.4 | 79.6 | 26.2 | 90.8 | 90.4 |
| DeepSeek-V3 | 72.22 | 82.2 | 69.9 | 24.7 | 92.4 | 91.9 |
| GPT-4.1 | 70.96 | 84.7 | 68 | 25.1 | 86.5 | 90.5 |
| GPT-4.1 mini | 70.24 | 80.7 | 69.5 | 27.2 | 84.9 | 88.9 |
| GPT-5.1 | 74.41 | 96.82 | 95.61 | 24.02 | 69.32 | 86.27 |
| Yuan3.0-40B | 87.47 | 96 | 95.71 | 58.12 | 95.99 | 91.54 |
| Yuan3.0-1T |
| Models | 平均精度 | 词汇重叠 | 语义相似度 | 事实一致性 | |
|---|---|---|---|---|---|
| ROUGE-1 | ROUGE-2 | BERTScore | SummaC | ||
| DeepSeek-V3 | 59.28 | 25.5 | 9.2 | 86.3 | 68.2 |
| Gemini-2.0-Flash | 45.35 | 24.8 | 8.7 | 85.7 | 29.5 |
| Claude-3.5-Sonnet | 45.43 | 24.1 | 8.3 | 85.2 | 30.7 |
| OpenAI GPT-4-Turbo | 45.81 | 24.7 | 8.6 | 85.6 | 31 |
| OpenAI GPT-4o | 46.53 | 25 | 8.9 | 85.9 | 32.5 |
| OpenAI GPT-4o-mini | 46.73 | 24.7 | 8.7 | 85.6 | 33.6 |
| OpenAI o1 | 46.5 | 24 | 8.1 | 85.1 | 34 |
| OpenAI o1-mini | 46.58 | 24.6 | 8.5 | 85.5 | 33.4 |
| OpenAI GPT-5.1 | 49.33 | 28.4 | 10.3 | 84.8 | 39.6 |
| Yuan3.0-1T | 61.64 | 46.8 | 28.5 | 89 | 53.2 |
| Models | OCRBench | ChartQA | ChartQAPro | ChartMuseum | DocVQA | |
|---|---|---|---|---|---|---|
| GLM-4.6V | Thinking | 86.5 | 65.5 | 58.4 | ||
| GLM-4.6V-Flash | - | 84.7 | 62.6 | 49.8 | ||
| GLM-4.5V | - | 86.5 | 64 | 55.3 | ||
| GLM-4.1V-9B-Thinking | Thinking | 84.2 | 59.5 | 48.8 | ||
| Qwen2.5-VL-72B | - | 89.5 | 96.4 | |||
| InternVL3-78B | - | 89.7 | 95.4 | |||
| Qwen3-VL-235B-A22B-Thinking | Thinking | 87.5 | 90.3 | 63.6 | / | 96.5 |
| Kimi-VL-A3B-Thinking-2506 | Thinking | 86.9 | 23.7 | 33.6 | ||
| Step3-321B | - | 83.7 | 56.4 | 40 | ||
| Yuan-3.0-40b | Thinking | 89.2 | ||||
| Yuan3.0-1T | Non-Thinking | |||||
| Thinking | 90.4 | |||||
| Models | MathVistamini | MathVersemini | AI2D | |
|---|---|---|---|---|
| Qwen2.5-VL-72B | - | 74.2 | 47.3 | 88.7 |
| Qwen3-VL235B-A22B | Thinking | 85.8 | 85 | 89.2 |
| InternVL3-78B | - | 79 | 51 | 89.7 |
| GPT-5.1 | Non-Thinking | |||
| Thinking | ||||
| Yuan-3.0-1T | Non-Thinking | |||
| Thinking | ||||
| Models | AIME25 | MATH500 | LiveCodeBench | GPQA-Diamond | MMLU Pro | |
|---|---|---|---|---|---|---|
| Deepseek-V3.2 | - | 93.1 | 82.7 | 86.2 | ||
| Kimi-K2 | Thinking | 94.5 | 84.5 | 84.8 | ||
| GPT-5.1 | Non-Thinking | 38 | 64 | 80 | ||
| Thinking | 94 | 88 | 87 | |||
| Yuan-3.0-40b | Non-Thinking | |||||
| Thinking | ||||||
| Yuan-3.0-1T | Non-Thinking | |||||
| Thinking | ||||||
创新的Attention Router机制,实现高效的专家网络协同
摒弃传统注意力对所有 token 平等处理,采用 “局部优先、全局补充” 分层建模,先以卷积强化局部短依赖,再建模全局长依赖,兼顾语义理解精度与参数量、内存开销,对中文语序和关联语义适配更优。
提出Attention Router 门控网络,突破传统 MoE 门控只看 token 与专家点积、忽略专家间协同的局限,为每个专家构建三个特征向量度量关联性,选择更适配的专家组合,提升协同推理精度。
采用统一多模态编码—解码架构,先将任意分辨率图像经视觉编码与Token重组处理,再与文本Token实现序列级拼接并共同输入模型,最终达成高效端到端的多模态理解与生成。
先清洗掉新闻、生活等泛内容,把教材、论文、代码等专业语料占比拉高;同时配图文对,让模型同步学语言也学视觉,打好多模态底子。
在 CoT 推理数据的基础上增补反思、验证类样本,让模型学会自我检查;图文任务覆盖科研、编程、办公等真实场景,专业属性继续加厚。
所有样本按领域、难度、多样性打标签,逐级升维,训练稳而不崩;每条数据都带可验证的参考答案或评分脚本,结果与过程双维奖励,模型越学越靠谱。
用 LAEP 解决 MoE 负载不均,通过裁剪少负载专家 + 中期重排,让源 3.0-1T 参数量降 33%、训练性能升 49%,精度持平主流模型。
提出DS-DAPO动态采样优化算法,优化常规 DAPO 过采样问题,以同规模采样 + 重采样,减少 52.91% 训练耗时,兼顾效率与精度。
采用RSPS过程监督算法,解析思维链、标记关键位置并计算三维监督分数,结合动态阈值机制惩罚无反思/过度反思样本,减少推理输出 tokens 的同时,保障核心任务精度。
完全开源,免费可商用,无需任何授权
模型权重、代码、文档全面开源,支持社区共建共享。
无需支付任何费用,即可用于商业项目和产品开发。
无需申请或等待审批,下载即可使用,加速落地。
活跃的开发者社区,提供技术支持和最佳实践分享。