news 2026/4/17 16:08:25

Vue + Iframe 实战:打造企业级流程配置中心装

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Vue + Iframe 实战:打造企业级流程配置中心装

简介

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。

环境配置

安装langchain框架

pip install langchain langchain-community

其中langchain可以提供了各种大模型语言库选择,(这里只列举几个)例如:

#chatgpt

pip install langchain-openai

#hugging face

pip install langchain-huggingface

#千问

pip install langchain-qwq

1. 让模型跑起来

如何让你llm跑起来,这里用的是千问,来演示

案例

import os

from langchain_community.chat_models.tongyi import ChatTongyi

from langchain_core.prompts import ChatPromptTemplate

from langchain_core.output_parsers import StrOutputParser

#这里是你的千问apikey

os.environ["DASHSCOPE_API_KEY"] = "apikey"

model = ChatTongyi(model="qwen-plus")

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

output_parser = StrOutputParser()

chain = prompt | model | output_parser

#文本输出

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

#分割

print("="*30)

#流式输出

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)

代码解释

整个代码的流程如下:

创建模型->构建提示词->构建chain链->使用大模型

创建模型

这一步用不同的模型可能会不同

这里利用langchain的千问库创建模型,可能会不同

model = ChatTongyi(model="qwen-plus")

#例如用chatgpt

llm = init_chat_model("gpt-4o", model_provider="openai")

构建提示词

这一步构建利用了langchain库提供提示词模板:

其中用{}阔起来的在调用时可以动态用字典替换

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

各个角色功能如下:

角色名称 (Role) 对应的类 作用说明

system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高,决定了后续对话的基调。

user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。

ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话(带记忆)时,需要把模型之前的回复传回去。

构建chain链

这个是langchain的灵魂,这里简单说明,后面会发更详细的教学文章

chain链的运行流程如下:

将输入填充prompt->将完整prompt喂给LLM->直接解析返回文本

StrOutputParser()这个是langchain提供的文本解析器,用于将上面的结果解析为文本

output_parser = StrOutputParser()

chain = prompt | model | output_parser

使用大模型

这里有两种方式:

直接输出完整的文本

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

流文本输出(打字机)

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)俸品阜垦

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 8:26:39

TLA+测试框架完全解析:如何编写有效的模型验证用例

TLA测试框架完全解析:如何编写有效的模型验证用例 【免费下载链接】tlaplus TLC is a model checker for specifications written in TLA. The TLAToolbox is an IDE for TLA. 项目地址: https://gitcode.com/gh_mirrors/tl/tlaplus TLA是一种强大的形式化规…

作者头像 李华
网站建设 2026/4/11 20:15:17

Ghidra初体验:从安装到逆向分析实战

1. 初识Ghidra:NSA开源的逆向神器 第一次听说Ghidra是在技术论坛上看到有人讨论这个工具。当时看到"NSA出品"这几个字就让我产生了强烈的好奇心——美国国家安全局开发的逆向工程工具居然开源了?这简直就像发现了一个技术宝藏。作为一个常年混…

作者头像 李华
网站建设 2026/4/13 1:43:07

eRPC企业级应用:平安科技、快手等大厂的真实使用场景

eRPC企业级应用:平安科技、快手等大厂的真实使用场景 【免费下载链接】erpc An efficient, extensible and easy-to-use RPC framework. 项目地址: https://gitcode.com/gh_mirrors/er/erpc eRPC是一款高效、可扩展且易用的RPC框架,被平安科技、快…

作者头像 李华
网站建设 2026/4/13 6:07:32

Go-multierror 测试技巧:如何编写全面的错误处理测试用例

Go-multierror 测试技巧:如何编写全面的错误处理测试用例 【免费下载链接】go-multierror A Go (golang) package for representing a list of errors as a single error. 项目地址: https://gitcode.com/gh_mirrors/go/go-multierror Go-multierror 是一个强…

作者头像 李华