news 2026/4/16 16:57:18

美团发布5600亿参数LongCat-Flash-Thinking大模型,推理能力跃升

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
美团发布5600亿参数LongCat-Flash-Thinking大模型,推理能力跃升

美团正式发布其最新大语言模型LongCat-Flash-Thinking,这是一款具备5600亿总参数的高效大型推理模型(LRM),采用创新的混合专家(Mixture-of-Experts, MoE)架构,标志着国内企业在通用人工智能领域的技术突破。

【免费下载链接】LongCat-Flash-Thinking项目地址: https://ai.gitcode.com/hf_mirrors/meituan-longcat/LongCat-Flash-Thinking

当前大语言模型正朝着"大参数+高效率"的方向快速演进,MoE架构已成为平衡性能与计算成本的主流选择。据行业研究显示,2024年全球参数规模超千亿的大模型数量同比增长150%,其中采用MoE架构的模型占比达62%。与此同时,推理能力作为衡量模型智能水平的核心指标,已从简单逻辑推理向复杂数学证明、工具使用等高级形态发展,推动大模型从内容生成向问题解决转变。

LongCat-Flash-Thinking的核心突破在于其动态计算机制与创新训练方法的结合。该模型总参数达5600亿,但根据上下文需求仅激活186亿至313亿参数(平均约270亿),这种"按需分配"的计算方式显著提升了效率。其技术亮点集中在三个方面:

首先是领域并行强化学习(RL)训练方法,通过将STEM、编程和智能体任务等不同领域解耦优化,再融合各领域专家模型,最终实现了近乎帕累托最优的综合性能。这一方法有效解决了传统混合域训练的不稳定性问题,使模型在保持数学推理能力的同时,也能在代码生成等任务上表现出色。

其次是自主研发的DORA(Dynamic Orchestration for Asynchronous Rollout)系统,这一高效分布式强化学习框架支持异步训练和灵活的计算资源使用,通过弹性协同定位和多版本异步流水线两大核心组件,实现了数万台计算设备上的稳定可扩展训练,并优化了长序列生成任务的性能。

第三是在形式化推理与智能体推理方面的突破。模型引入新颖的专家迭代框架,通过语句形式化、迭代证明合成和语法一致性过滤等技术,显著提升了自动定理证明能力;同时采用双路径推理方法,能自适应识别高价值查询并调用工具解决复杂任务,强化了模型的实际问题处理能力。

从行业影响来看,LongCat-Flash-Thinking的发布展现了中国企业在大模型核心技术上的自主创新能力。在数学推理领域,该模型在MATH500数据集上达到99.2%的正确率,HMMT25竞赛题测试得分为83.7分,接近国际顶尖水平;代码生成方面,LiveCodeBench基准测试中获得79.4分,OJBench达到40.7分,展现出强大的工程实践能力。特别值得注意的是其在零售、航空等垂直领域的工具使用能力,τ²-Bench-Retail数据集得分71.5分,显示出模型在商业场景落地的潜力。

安全性能同样表现突出,在有害信息识别、犯罪内容过滤、虚假信息检测和隐私保护四个维度得分分别为93.7、97.1、93.0和98.8分,体现了模型在对齐人类价值观方面的严格把控。

【免费下载链接】LongCat-Flash-Thinking项目地址: https://ai.gitcode.com/hf_mirrors/meituan-longcat/LongCat-Flash-Thinking

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 11:59:49

PaddlePaddle视频行为识别实战:ActionNet模型部署与优化

PaddlePaddle视频行为识别实战:ActionNet模型部署与优化 在智能安防、工业监控和人机交互日益发展的今天,单纯的目标检测已经无法满足对复杂场景的理解需求。我们不再只想知道“有没有人”,而是更关心“他们在做什么”——是正常行走还是突然…

作者头像 李华
网站建设 2026/4/16 13:36:36

5分钟掌握大脑训练神器:开源BrainWorkshop完整指南

5分钟掌握大脑训练神器:开源BrainWorkshop完整指南 【免费下载链接】brainworkshop Continued development of the popular brainworkshop game 项目地址: https://gitcode.com/gh_mirrors/br/brainworkshop 还在为记忆力下降、注意力不集中而烦恼吗&#xf…

作者头像 李华
网站建设 2026/4/15 20:50:33

PaddleNLP实战教程:基于PaddlePaddle的中文情感分析全流程

PaddleNLP实战教程:基于PaddlePaddle的中文情感分析全流程 在电商评论区刷屏的“发货太慢”,社交媒体上爆发的“服务差评”,或是客服对话中隐藏的情绪波动——这些文本背后,蕴藏着企业最真实的一线用户反馈。如何从海量非结构化中…

作者头像 李华
网站建设 2026/4/16 11:05:44

如何免费微调Gemma 3?Unsloth加速教程

大语言模型微调不再是专业团队的专利。近日,Unsloth团队推出针对Google Gemma 3系列模型的免费微调方案,让开发者能在普通设备甚至免费云端环境中高效定制AI模型,这一技术突破正在重塑开源模型的应用生态。 【免费下载链接】gemma-3-270m-it-…

作者头像 李华
网站建设 2026/4/16 12:20:32

GLM-4.1V-9B-Thinking:10B级VLM推理新标杆

GLM-4.1V-9B-Thinking:10B级VLM推理新标杆 【免费下载链接】GLM-4.1V-9B-Thinking 项目地址: https://ai.gitcode.com/zai-org/GLM-4.1V-9B-Thinking 导语:清华大学知识工程实验室(KEG)与智谱AI联合发布GLM-4.1V-9B-Think…

作者头像 李华
网站建设 2026/4/16 13:08:04

Gemma 3 12B模型免费微调教程:Unsloth助你高效部署

导语 【免费下载链接】gemma-3-12b-it-GGUF 项目地址: https://ai.gitcode.com/hf_mirrors/unsloth/gemma-3-12b-it-GGUF 借助Unsloth工具链,开发者现在可在免费计算资源上完成Gemma 3 12B模型的高效微调与部署,显著降低大模型本地化应用门槛。 …

作者头像 李华