news 2026/5/16 15:06:32

[AI/应用/MCP] MCP Server/Tool 开发指南渡

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
[AI/应用/MCP] MCP Server/Tool 开发指南渡

简介

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。

环境配置

安装langchain框架

pip install langchain langchain-community

其中langchain可以提供了各种大模型语言库选择,(这里只列举几个)例如:

#chatgpt

pip install langchain-openai

#hugging face

pip install langchain-huggingface

#千问

pip install langchain-qwq

1. 让模型跑起来

如何让你llm跑起来,这里用的是千问,来演示

案例

import os

from langchain_community.chat_models.tongyi import ChatTongyi

from langchain_core.prompts import ChatPromptTemplate

from langchain_core.output_parsers import StrOutputParser

#这里是你的千问apikey

os.environ["DASHSCOPE_API_KEY"] = "apikey"

model = ChatTongyi(model="qwen-plus")

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

output_parser = StrOutputParser()

chain = prompt | model | output_parser

#文本输出

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

#分割

print("="*30)

#流式输出

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)

代码解释

整个代码的流程如下:

创建模型->构建提示词->构建chain链->使用大模型

创建模型

这一步用不同的模型可能会不同

这里利用langchain的千问库创建模型,可能会不同

model = ChatTongyi(model="qwen-plus")

#例如用chatgpt

llm = init_chat_model("gpt-4o", model_provider="openai")

构建提示词

这一步构建利用了langchain库提供提示词模板:

其中用{}阔起来的在调用时可以动态用字典替换

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

各个角色功能如下:

角色名称 (Role) 对应的类 作用说明

system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高,决定了后续对话的基调。

user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。

ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话(带记忆)时,需要把模型之前的回复传回去。

构建chain链

这个是langchain的灵魂,这里简单说明,后面会发更详细的教学文章

chain链的运行流程如下:

将输入填充prompt->将完整prompt喂给LLM->直接解析返回文本

StrOutputParser()这个是langchain提供的文本解析器,用于将上面的结果解析为文本

output_parser = StrOutputParser()

chain = prompt | model | output_parser

使用大模型

这里有两种方式:

直接输出完整的文本

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

流文本输出(打字机)

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)舷闲旧勒

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/10 8:06:43

PDF-Extract-Kit-1.0与LangChain集成:构建智能文档处理流水线

PDF-Extract-Kit-1.0与LangChain集成:构建智能文档处理流水线 1. 引言 在日常工作中,我们经常需要处理大量的PDF文档——可能是合同、报告、研究论文或者财务报表。传统的手动处理方式不仅效率低下,还容易出错。想象一下,如果你…

作者头像 李华
网站建设 2026/4/9 6:39:10

跨平台兼容秘诀:OpenClaw在Linux对接百川2-13B-4bits模型全记录

跨平台兼容秘诀:OpenClaw在Linux对接百川2-13B-4bits模型全记录 1. 为什么选择Linux环境部署OpenClaw 去年夏天,当我第一次尝试在Ubuntu服务器上部署OpenClaw时,完全没料到这会成为我最折腾也最有成就感的开源项目实践。作为长期使用macOS的…

作者头像 李华
网站建设 2026/4/9 6:37:16

Linux内核与驱动:7.定时器

在 Linux 驱动开发中,内核定时器(Kernel Timer) 是一种高频率使用的机制,用于在未来的某个时间点触发特定的执行逻辑。与用户态的 sleep 不同,内核定时器是异步的,且运行在中断上下文中。1.定时器核心概念L…

作者头像 李华
网站建设 2026/4/9 6:35:19

Yi-Coder-1.5B游戏开发:Unity脚本智能生成

Yi-Coder-1.5B游戏开发:Unity脚本智能生成 1. 引言 想象一下,你正在开发一款Unity游戏,脑子里有个绝妙的玩法创意,却卡在了代码实现上。传统的游戏开发需要你一行行敲代码,调试逻辑,反复修改——这个过程…

作者头像 李华
网站建设 2026/4/9 6:35:09

cv_unet_image-matting图像抠图场景实战:复杂背景人像处理技巧

cv_unet_image-matting图像抠图场景实战:复杂背景人像处理技巧 1. 引言:为什么需要专业的人像抠图工具? 在日常工作中,我们经常遇到需要将人像从复杂背景中分离出来的需求。无论是电商产品图、证件照制作还是创意设计&#xff0…

作者头像 李华