news 2026/4/16 17:19:46

LLM分类模式驱动三

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
LLM分类模式驱动三

今天给大家带来的文章是LLM分类模式驱动,希望能对学习LLM的同学们有所帮助。

文章目录

  • 1. 前言
  • 2. 模式驱动生成

1. 前言

随着这两年大语言模型的应用,各种语言模型已经在很多领域带来了许多颠覆性的成果,但是在融入各种程序环境时,大语言模型也遇到了一些阻碍。为了解决这些问题,行业内陆续出现了十几种不同的流行框架,通过各种不同的抽象交互方式来和语言模型进行交互。为了给大家提供一个清晰的框架图谱,大佬们提出了一个分类模型,从执行功能角度,确定出五种语言模型的抽象家族。今天我们着重看一下其中的模式驱动生成。详细内容可参考论文《A Guide to Large Language Model Abstractions》)。

2. 模式驱动生成

对于受控生成的一种更精细的抽象是基于模式驱动的生成(Schema-Driven Generation)。在这种方法中,语言模型(LM)和其所属的编程接口之间的边界受到预定义的模式或对象规范语言(通常为JSON)的约束。这与GuidanceLMQL不同,后者需要用户指定JSON的结构框架及其内部内容的限制才能生成JSON输出。与受控生成相比,基于模式的方法更容易与现有的编程逻辑集成。然而,对生成内容类型的控制粒度可能更有限。这些库被放置在Prompt Constraint Layer中,因为符合模式是限制LM输出的一种方式。

Outlines的其他库中,如MarvinInstructor,以及最近的LangChainLlamaindex中,这一步骤进一步抽象化。用户可以使用数据验证库Pydantic来指定数据结构作为特定LM的输出模式(模型级抽象)。在内部,这些库通过预定义的提示(Prebuilt Prompts)将模式编码为自然语言指令,要求LM以正确的可解析格式输出。然而,对于MarvinInstructor,它们还提供了利用底层LLM供应商提供的更高级功能的支持(例如OpenAI的函数调用功能,以强制可解析性)。这些库预计还将采用OpenAI的新JSON模式,以减少输出不可解析的可能性。

  • 实例代码一如下所示:
importinstructorfromopenaiimportOpenAIfrompydanticimportBaseModel# This enables response_model keyword# from client.chat.completions.createclient=instructor.patch(OpenAI())classUserDetail(BaseModel):name:strage:intuser=client.chat.completions.create(model="gpt-3.5-turbo",response_model=UserDetail,messages=[{"role":"user","content":"Extract Jason is 25 years old"}])assertisinstance(user,UserDetail)assertuser.name=="Jason"assertuser.age==25

例如,Instructor提供了OpenAI API的替代客户端,可以接受使用Pydantic指定的响应模型(示例2所示)。在其实现中,它支持三种查询LM的模式,即json、函数调用和工具使用,每种模式对应于OpenAI支持的等效API。为了引导LM进行解析过程,Instructor内部有一些提示来指导LM的模式和输出格式。

LangChain中,当偶尔发生验证错误时,支持更复杂的重试解析器,但输出不是通过OpenAI的函数调用API进行提示,而是更多地通过自然语言指令进行提示。

  • 实例代码二如下所示:
llm=OpenAI(temperature=0)classAction(BaseModel):action:str=Field(description="action to take")action_input:str=Field(description="input to the action")parser=PydanticOutputParser(pydantic_object=Action)# the parser provides natural language formatting instruction for use in LLM.# The process is centered around prompts.prompt=PromptTemplate(template="Answer the user query.\n{format_instructions}\n{query}\n",input_variables=["query"],partial_variables={"format_instructions":parser.get_format_instructions()})prompt_value=prompt.format_prompt(query="who is leo di caprios gf?")model_response=model(prompt_value.to_string())# the parsing aspect and the querying aspect is detached in LangChainparsed_model=parser.parse(model_response)# if the parsing process results in an exception, users could use the retry parser that internally appends the parsing error and prompts the LM to retry it againretry_parser=RetryWithErrorOutputParser.from_llm(parser=parser,llm=llm)retry_parser.parse_with_prompt(model_response,prompt_value)

实例代码二详细地介绍了LangChain的解析和重试机制。这个例子突出展示了LangChain在字符串和提示操作方面的重点关注,并展现了他们提供的一些实用且灵活的工具。

除了输出数据模式之外,一些库还在LLM交互的上下文中添加了对功能模式(Function Level Abstraction)的支持,它们允许程序员使用自然语言来标注函数的架构签名,从而表达函数的核心目的。这个想法最早出现在2023年初的DSP项目中,它是DSPy框架的前身。在DSP中,用户可以指定函数的输入和输出类型(例如:“Question, Thoughts -> Answer”),这包括了对参数的人类易懂的描述和相关前缀。输入和输出类型的集合形成了一个DSP模板,可以用来生成一个可调用的 Python 函数。Marvin最近通过其“AI Function”进一步简化了这种模式,程序员可以注明输入输出类型及函数说明,这些信息将用于根据运行时的输入生成提示,并从大语言模型中提取答案。

  • 实例代码三如下所示:
@ai_fndefgenerate_recipe(ingredients:list[str])->list[str]:"""From a list of `ingredients`, generates a complete instruction set to cook a recipe. """generate_recipe(["lemon","chicken","olives","coucous"])generate_recipe.prompt("I need a recipe using Lemon Chicken Olives and Coucous")

实例代码三描述了Marvin的AI函数。在这个例子中,被标注的函数会在运行时被捕获,其 Python 类型签名、描述和输入都会被送入大语言模型来提取输出。类型提示在这里起到确保类型安全的校验作用。这种方法还允许以自然语言的方式调用函数。

DSPy中,开发人员可以类似地指定自然语言签名,以声明方式定义LLM需要解决的某个(子)任务,该任务由整体任务的简要描述以及输入和输出字段的描述引出。

  • 实例代码四如下所示:
classBasicQA(dspy.Signature):"""Answer questions with short factoid answers."""question=dspy.InputField()answer=dspy.OutputField(desc="often between 1 and 5 words")# Define the predictor.generate_answer=dspy.Predict(BasicQA)# Call the predictor on a particular input.pred=generate_answer(question=dev_example.question)# Or use the Short Handqa=dspy.Predict("question -> answer")qa(question="Where is Guaraní spoken?")

实例代码四展示了DSPy如何利用自然语言签名来创建遵循特定签名的由大语言模型驱动的函数。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 13:53:59

YOLO开源生态有多强?GitHub星标超50K的背后故事

YOLO开源生态有多强?GitHub星标超50K的背后故事 在智能制造工厂的质检线上,一台工业相机正以每秒30帧的速度拍摄流水线上的电子元件。下一秒,一个轻量级AI模型便完成了对成百上千个焊点的缺陷识别——裂纹、虚焊、错位无一遗漏,并…

作者头像 李华
网站建设 2026/4/16 8:59:01

YOLO目标检测在智慧城市中的应用:占道经营识别

YOLO目标检测在智慧城市中的应用:占道经营识别 在城市街头,流动摊贩与市容管理之间的“猫鼠游戏”由来已久。清晨的菜市场周边,三轮车一字排开;傍晚的人行道上,烧烤摊烟火升腾——这些看似寻常的生活图景,…

作者头像 李华
网站建设 2026/4/16 12:58:20

YOLOv8-MobileNet轻量主干适配,低功耗GPU友好

YOLOv8-MobileNet轻量主干适配,低功耗GPU友好 在智能制造与边缘AI加速落地的今天,一个现实问题正不断浮现:我们手握先进的目标检测模型,却难以将其稳定部署到产线上的工控机、AGV小车或嵌入式摄像头中。算力不足、显存紧张、功耗超…

作者头像 李华
网站建设 2026/4/16 10:42:27

YOLOv10模型结构创新:无需后处理的真正端到端

YOLOv10模型结构创新:无需后处理的真正端到端 在工业视觉系统日益追求实时性与稳定性的今天,一个长期被忽视的问题正逐渐显现:传统目标检测模型在推理末尾依赖非极大值抑制(NMS)进行去重,这一看似“理所当然…

作者头像 李华
网站建设 2026/4/16 11:02:44

选对校园照明,关注关键参数护视力

当就校园光环境构建展开讨论之时,照明质量成为了不可被忽视的关键要素,合适的灯光不仅能够提升学习效率,更是保护学生视力健康的重要屏障,现在,市场中的教育护眼灯产品种类繁多且多样,其核心参数与设计理念…

作者头像 李华