智能体是目前企业落地复杂业务大模型应用的常用方法之一,Coze作为一款可视化的云端工作流工具,可以快速落地的智能体,占据着独特的生态位。对于很多企业来讲,能够使用Coze开发智能体是招聘时的必备技能
此次黑马上新的新项目是基于Coze平台实现的面试官智能体综合项目,涵盖工作流、知识库、常用插件等各类常用技术,业务上解决了学生面试后高效复盘提升,技术方案上可以扩展多业务场景、举一反三 ,掌握更多场景智能体开发。
项目面向零基础了解基础AI的同学,大家学完后将收获:
○核心能力
· Coze平台的基本使用
· Coze平台在线版的使用
· Coze开源版安装
· 搭建工作流
· 使用知识库
· 使用数据库
· 构建智能体
· Coze平台进阶使用
· 循环结构
· 使用Coze处理多模态数据
· Multi-Agent
· 使用python调用Coze API
· 使用Coze平台落地一个复杂Agent
· Multi-Agent规划和拆解
· 具体功能的实现
· 工作流嵌套工作流
· 智能体集成复杂工作流
· 智能体发布和上线
○适应岗位
· Coze智能体开发
· Agent开发工程师
一、项目介绍
1 项目背景
在IT行业求职过程中,往往会面临三类问题:
不知道自己的简历怎么写更好?很多年轻求职者并不清楚怎么是一个好的简历,很多情况下无法做出准确的判断,投出以后反馈少、得不到面试机会;
无法判断自己面试表现的好坏?经常会出现自己觉得表现的还不错,但是却没有进入下一轮面试的通知,不知道自己的回答哪里答得不好;
不知道准备面试的时候该去背哪些题目?很多求职者花大量的时间准备面试题,但是好多没有问到的,又有好多在简历范围内的问题没有准备,面试题的准备没有针对性。
针对以上三类问题,需要一个兼顾效率和效果的解决方案。经技术调研,该项目通过Coze平台搭建智能体来解决复杂业务场景问题。
2 项目目标及优势
为了解决上述痛点,设计了一个基于Coze平台的智能Agent,旨在实现高效的语音识别、文档检索、内容生成技术,解决简历、录音、面试题的相关问题。系统结合OCR、RAG、ASR、Multi-Agent等大模型或算法相关技术,实现简历修改、面试录音分析、面试题目生成等功能,实现当前就业服务痛点的全覆盖。该项目不仅作为面授项目,而且也用到了同学日常面试提升效率和准确率。
通过多轮调研敲定方案后,本项目最终基于Coze平台特性,以低代码的方式快速落地。对比LangGraph、LangChain、传统RAG(自研模型+embedding+向量数据库全流程),本项目拥有落地周期短、低代码量、高质量等优势。
2.1 目标
构建统一入口:提供统一入口,对简历修改、面试录音、面试题题目等问题的处理进行子Agent的智能路由,提供友好的交互,兜底闲聊等非助手scope内的场景。
构建简历问题召回模块:支持简历上传、PDF和DOCX文档内容文本提取、并基于分治思想把简历内容拆分成个人信息、学历信息、工作履历、技能、项目经历、自我评价等部分,减少幻觉的发生。针对每个部分基于规则库进行匹配。最终召回简历中的所有问题,并生成修改建议。
构建面试录音分析:支持录音文件上传,通过ASR技术提取文本内容,并进行面试官、应试者角色划分,实现问题和回答的拆分,并基于面试题题库和互联网搜索就应试者的回答对回答效果进行评估,并把原文和评估结果润色后一并返回。同时,将录音中的问题录入面试题题库。
构建面试题生成模块:支持简历上传、PDF和DOCX文档内容文本提取,基于面试题题库、用户上传的简历内容、以及近期的面试题,生成用户专属的面试题题库,并返回给用户。
批处理模块:提供python client,在本地实现Coze智能体调用。实现上述功能,用于批量处理简历、音频场景。
2.2 优势
智能体架构与工作流编排:采用Multi-Agent系统,通过智能路由将任务分配给简历修改、录音分析等专业子智能体协同处理,实现专业化分工与高效协作。
结构化工作流:通过可视化的、结构化的“工作流”模式,将简历分析、录音转录等复杂任务拆解为标准化步骤,确保处理过程清晰可控、结果可追溯。
多模态信息处理:综合运用OCR、ASR和文本解析等技术,实现对PDF、DOCX文档以及音频文件等多模态信息的精准提取与理解,为深度分析奠定基础。
领域知识增强:通过结合面试题库、岗位胜任力模型等专业领域知识,并利用RAG等技术,有效提升了建议的专业性和准确性,减少了模型“幻觉”
模块化设计:系统采用的模块化设计(如子Agent路由)使得每个核心功能相对独立,便于未来对单个模块进行升级或增加新功能(例如,增加视频面试分析),展现了良好的灵活性与可扩展性。
低代码快速落地:基于Coze低代码平台进行开发,幅降低了技术门槛和开发周期,使团队能聚焦于业务逻辑创新,实现产品的快速迭代和部署。
3 项目使用示例
3.1 示例1:简历评估
简历评估模块在接收到学生的简历后,基于一线企业主流的面试规则,给学生输出简历中存在的问题。
· 用户上传简历,并输入:帮我看看简历
· 系统自动路由,内部进行复杂的处理后,给出对应的回复:
工作流编排如下:
3.2 示例2:录音分析
接收学生面试时的录音,并分析面试表现。
· 用户上传录音,并输入:帮我分析以下面试录音
· 系统自动路由,内部进行复杂的处理后,给出对应的回复:
工作流编排如下:
3.3 示例3:面试题生成
接收用户的简历,结合面试题宝典的数据和录入到面试题记录中的面试题数据,生成面试题。
· 用户上传简历,并输入:帮我生成面试题
· 等待工作流执行完毕,并返回结果:
工作流编排如下:
3.4 示例4:本地环境批量处理
批处理模块用于批量处理大量的面试简历或者面试语音等场景, 基于已经发布的智能助手,通过Chat SDK调用并实现。
· 打开终端,进入到需要处理的目录下。执行批处理脚本,传入需要处理的目录。
· 等待执行完毕后,会在当前目录下生成新的文件夹
· 文件名会和处理之前有对应关系,最后都以原始文件名+markdown后缀保存,以便和原始文档或音频文件对应。
该功能的实现步骤如下:
4 项目涉及技术点
本项目整合了Multi-Agent路由、OCR/ASR多模态处理、RAG知识增强与DeepSeek深度推理等关键技术,在Coze低代码平台上协同构建了一个端到端的智能面试辅助系统,针对就业辅导场景深度优化,实现了从简历解析、录音分析到个性化题目生成的全流程自动化。
二、项目亮点
1 完整的AI项目工程闭环
项目为无项目经验的学生考虑,实现了从业务需求分析到功能上线的全流程,包括:
1.业务痛点分析:基于业务痛点,产生需求,并转化为可执行的技术方案。
2.项目排期和里程碑:采用分阶段敏捷开发模式,规划了从需求分析、技术选型、核心模块开发、集成测试到试点上线的关键里程碑,确保项目在可控的周期内快速迭代交付。
3.业务流程设计:设计了以学生上传简历或录音为起点,通过智能路由分配任务,最终生成个性化报告或试题的端到端流程,确保用户体验流畅高效。
4.技术选型和技术设计:通过与LangChain、LangGraph等技术横向对比,核心选择Coze低代码平台快速构建Multi-Agent系统,并集成OCR、ASR、RAG及大型语言模型(如DeepSeek R1)等关键技术,平衡了开发效率与系统能力。
5.数据处理:针对简历文档、面试录音等非结构化数据,建立了包括解析、清洗、标注(如说话人角色划分)和导入知识库的标准化流程,为AI分析提供高质量数据基础。
6.工作流搭建:在Coze平台利用可视化工具将简历分析、录音转写与评估等复杂任务编排为自动化工作流,明确每个环节的输入、处理和输出,实现了业务流程的自动化。
7.智能体发布:将调试完成的AI助手发布至应用商店和Open API,实现在线机器人对话,或者API调用方式访问智能体。
2 低代码和快速落地
本项目基于Coze平台构建,其零代码/低代码特性精准契合了市场对快速、低成本构建AI应用的迫切需求。Coze通过可视化编排和丰富模板,将AI应用开发周期从数月大幅缩短至数天,使我们能聚焦业务逻辑而非技术实现。
Coze和Dify作为Agent的低代码版的主流技术,也是市场求职的刚需。随着企业寻求将AI能力与实际业务结合以实现降本增效,市场对能够使用Coze这类低代码平台快速构建AI应用的人才需求呈现爆发式增长。这使之成为当前技术领域的一个热门方向。
在学生激增的背景下快速上线“AI面试助手”,高效解决了简历修改、面试分析等就业辅导效率痛点。同时,其与字节系生态的深度集成,为应用分发提供了便利。
3 文档分块优化与检索增强
对于项目中涉及到文档查询的部分,使用以下技术优化召回效果:
· 文档分块优化:采用父子块文档分块方式,子块用于检索匹配,增强召回率。父块用于检索时作为内容返回,在进行RAG时召回更多的内容,为大模型提供更详细的上下文。
· 检索增强:基于全文+语义实现混合检索,从不同维度召回内容,大幅提升了召回的准确率和多样性。并基于rerank模型对结果进行二次排序,确保最终推荐的简历与用户需求高度相关,实现从“找到”到“找准”的飞跃。
4 Multi-Agent架构
在本项目中,我们采用了先进的Multi-Agent(多智能体)协同架构来高效处理复杂的面试辅导流程。该架构的核心优势在于通过专业化分工和智能协作,显著提升了系统的处理能力与可靠性。 核心优势:
·模块化设计实现专业分工:该系统由多个各司其职的专业智能体(Agent)构成,例如简历解析、面试分析、题目生成等。这种设计使得每个智能体可以专注于特定领域,深度优化其专业能力。同时,各个智能体功能独立,便于单独开发、测试和升级,极大降低了系统的复杂度和维护成本。
·强大的可扩展性 :模块化是系统可扩展性的基础。当业务需要增加新功能时(例如新增模拟面试官角色),无需重构整个系统,只需开发新的专业智能体并将其集成到现有框架中即可。这种架构使系统能够灵活、低成本地适应业务的持续演进和增长。
5 端到端的用户体验
项目从自然语言+文件的输入到报告的产出,提供了完整的端到端的闭环。用户不需要关心中间的执行过程,也不需要记忆复杂的输入格式,只需要简单的输入即可完成功能的调用,并以友好和自然的语言反馈给用户。并且在最终给到用户的结果中,未符合预期的,会有明确的、详细的可参考的规则或者答案,而中间过程对于用户来讲是透明的。
6 私有化部署
除了主要介绍的SaaS版Coze以外,私有化部署也是课程的重要部分。通过私有化部署,企业能够结合自身业务需求,自主定制和优化AI模型与工作流,将通用助手转化为深度理解企业业务的专属专家系统。
私有化支持将Coze平台完整部署于企业内部服务器或私有云环境,确保所有的简历数据、面试录音及分析过程均在内部网络流转,实现敏感数据不出域,有效满足金融、医疗等行业对数据合规性的严格要求。
同时,该模式使企业摆脱了对第三方云服务的依赖,掌握了模型更新、数据管理和系统运维的完全主动权,有效规避了服务中断或政策变动带来的风险,实现了真正的技术自主可控。
7 本地数据+远程智能混合架构
本项目的批处理模块采用“本地数据+远程智能”的混合架构,有效平衡了数据处理效率与系统能力。通过Python编写的本地客户端程序,调用部署在Coze平台上的智能助手API,实现了对海量简历和面试录音的批量、自动化处理。
从技术层面看,该设计具有三大优势:
1.数据安全可控:所有包含敏感信息的原始文件(如简历、录音)仅在用户本地环境流转,仅将必要的分析请求通过加密通道发送至云端智能体,从根本上杜绝了数据泄露风险,满足企业级隐私保护要求。
2.处理高效稳定:利用云端智能体的强大算力进行密集的AI分析(如语义理解、评估生成),而本地客户端专注于点对点的文件调度与结果收集。这种分工协作模式,特别适合在毕业季等高峰期,对成百上千份资料进行快速、稳定的批处理。
3.架构灵活经济:通过标准化的Chat SDK进行远程调用,将复杂的AI模型维护工作交由云端平台,本地只需关注业务逻辑。这不仅降低了本地环境的资源消耗和维护成本,也使得未来升级或更换云端模型变得简单便捷,无需改动本地代码。
此方案将本地处理的隐私安全性与云端AI的高效计算能力相结合,为大规模就业辅导提供了可靠的技术支撑。
三、项目架构图
用户视角的业务流程图:
技术视角的架构图:
四、教学实施结果
项目实施完成后,为了让学生举一反三,设置了项目实战环节,如下为部分学生作品:
↓上下滑动查看学生作品↓
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。