豆包目前已构建起覆盖通用语言、视觉创作、语音交互、垂直功能的全品类模型体系,并非单一模型,而是十余款适配不同场景的系列模型,这里博主做一下整理和介绍。
一、通用大语言模型
这类模型是豆包的核心基础,主打语言理解与生成,适配日常和专业等多种文字相关场景。
1、豆包大模型 1.6
特点
旗舰级通用模型,具备强推理能力与多模态理解能力,新增 GUI 操作和前端页面编程能力,推理延迟低至 20 毫秒
应用场景
C 端高阶需求与 B 端复杂业务,比如个人写万字报告、企业制定金融风控规则等
2、豆包大模型 1.6 - flash
特点
较旗舰版体积缩小 60%,推理速度提升 40%,成本降低超 50%,权威测评成绩优异
应用场景
中小微企业和个人的日常高频任务,像撰写营销文案、简单问答互动等
3、角色扮演模型
特点
上下文感知能力强,能精准把控人设,多轮对话保持性格一致,还可推动剧情发展
应用场景
模拟历史人物对话、儿童学习陪伴,也能用于游戏 NPC 智能对话
二、视觉创作类模型
这类模型聚焦图文、视频等视觉内容创作,覆盖从图像生成到视频制作、视觉理解的全链路,是内容创作者的常用工具。
1、视频生成模型
特点
支持多镜头叙事,能生成 1080P 高清视频,可自定义镜头节奏和场景风格,10 秒内完成生成
应用场景
MCN 机构批量产短视频、电商商家做商品展示视频等
2、文生图 / 图生图模型
特点
文生图擅长中国文化元素创作;图生图支持 50 余种风格变换,可扩图、重绘,部分版本支持 4K 输出
应用场景
设计行业做海报初稿、个人生成创意插画、证件照风格化等
3、视觉理解模型
特点
视觉识别与推理能力强,在 38 项全球视觉理解公开基准中获最优成绩,能精细描述图像并分析逻辑关系
应用场景
工业零件缺陷检测、新闻图片关键信息提取、智能安防异常识别等
三、语音与交互类模型
这类模型围绕语音相关需求打造,涵盖识别、合成、复刻等功能,可打破语言和沟通形式的壁垒。
1、实时语音模型
特点
语音自然度高,支持情绪调节和多风格演绎,能唱会演
应用场景
智能硬件交互、儿童故事机语音生成、虚拟陪伴等
2、声音复刻模型
特点
仅需 5 秒人声样本就能 1:1 克隆音色,相似度达 98%,还支持声音跨语种迁移
应用场景
有声书制作、虚拟主播定制专属音色、企业客服音色复刻等
3、同声传译模型
特点
延迟<300ms,支持 12 种语言互译,可实现跨语言同音色翻译
应用场景
国际会议传译、跨境直播双语互动、跨国企业视频会议等
4、语音识别模型
特点
识别准确率和灵敏度高,延迟低,支持多语种识别
应用场景
各类需要语音转文字的场景,如会议记录、音频内容转写等
四、垂直功能类模型
这类模型针对细分专业场景优化,多服务于企业办公自动化、开发者工具搭建等特定需求。
1、Function Call 模型
特点
功能识别和参数抽取精准,能高效对接各类工具
应用场景
企业对接 CRM 系统提取客户信息、开发者构建工具集成类应用等
2、向量化模型
特点
可将文本、图像转为高维度向量,多语言理解准确率 95%,检索响应速度<100ms
应用场景
企业智能客服知识库支撑、文档相似性检索等
3、UI - TARS 模型
特点
面向图形界面交互的原生 Agent 模型,能理解 GUI 操作指令并生成操作步骤
应用场景
软件测试自动化、为用户提供 PS 等软件的操作教程