news 2026/4/22 23:45:43

Step3-VL-10B保姆级教程:从零部署图文问答模型,支持GUI交互与STEM推理

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Step3-VL-10B保姆级教程:从零部署图文问答模型,支持GUI交互与STEM推理

Step3-VL-10B保姆级教程:从零部署图文问答模型,支持GUI交互与STEM推理

你是不是经常遇到这样的场景:看到一张复杂的图表,想快速提取里面的数据;或者收到一张产品图,需要分析它的设计元素;又或者辅导孩子作业时,面对一道带图的数学题,想找个智能助手帮忙解答?

今天我要介绍的Step3-VL-10B,就是专门解决这些问题的视觉语言模型。它能看懂图片、识别文字、分析内容,还能进行数学推理和逻辑分析。最棒的是,它提供了一个简单易用的Web界面,你不需要懂编程也能轻松使用。

这篇文章我会手把手带你从零开始,把这个强大的图文问答模型部署起来,让你也能拥有一个自己的“看图说话”智能助手。

1. 认识Step3-VL-10B:你的多模态AI助手

在开始部署之前,我们先简单了解一下Step3-VL-10B到底是什么,它能帮你做什么。

1.1 模型的基本能力

Step3-VL-10B是一个拥有100亿参数的多模态基础模型,简单说就是它能同时处理图片和文字信息。你可以把它想象成一个特别聪明的助手,不仅识字,还能“看懂”图片。

它能做的几件核心事情:

  1. 视觉理解:识别图片中的物体、场景、人物
  2. 文字识别:提取图片中的文字内容(就是我们常说的OCR功能)
  3. 实体定位:告诉你图片中某个物体在什么位置
  4. 计数功能:数一数图片中有多少个特定物体
  5. 空间理解:分析物体的相对位置和空间关系
  6. GUI交互:通过Web界面和你自然对话

1.2 特别擅长的推理任务

这个模型最厉害的地方在于它的推理能力,特别是STEM(科学、技术、工程、数学)相关的复杂推理:

  • 看图问答:你问它关于图片的任何问题,它都能回答
  • 图文理解:理解图片和文字之间的复杂关系
  • 数学推理:解决带图的数学题,进行逻辑计算
  • 代码分析:理解图表中的代码逻辑

举个例子,如果你上传一张包含销售数据的柱状图,问它“哪个季度的销售额最高?”,它不仅能告诉你答案,还能解释为什么。

1.3 技术规格一览

为了让心里有数,这里是一些关键的技术参数:

项目规格说明
模型大小100亿参数
支持图片分辨率最高728×728像素
部署位置/root/Step3-VL-10B-Base-webui/
Web界面地址http://localhost:7860
显卡要求NVIDIA RTX 4090(24GB显存)或同等

如果你没有这么高端的显卡也不用担心,后面我会介绍一些替代方案。

2. 环境准备与快速部署

好了,理论部分了解得差不多了,现在让我们开始动手部署。整个过程我会尽量详细,确保每一步都清晰明了。

2.1 检查你的系统环境

首先,确保你的系统满足基本要求:

硬件要求:

  • 显卡:NVIDIA GPU,显存至少24GB(RTX 4090或A100)
  • 内存:至少32GB RAM
  • 存储:至少50GB可用空间(模型文件约20GB)

软件要求:

  • 操作系统:Ubuntu 20.04或更高版本(其他Linux发行版也可)
  • Python:3.8或更高版本
  • CUDA:11.7或更高版本

如果你不确定自己的环境,可以打开终端,运行以下命令检查:

# 检查Python版本 python3 --version # 检查CUDA版本 nvcc --version # 检查显卡信息 nvidia-smi

2.2 一键部署脚本

为了简化部署过程,我准备了一个完整的部署脚本。你只需要复制下面的代码,保存为deploy_step3vl.sh,然后运行它。

#!/bin/bash # Step3-VL-10B 一键部署脚本 # 作者:技术博客内容生成专家 # 最后更新:2024年 echo "开始部署 Step3-VL-10B 图文问答模型..." echo "==========================================" # 1. 创建项目目录 echo "步骤1:创建项目目录..." mkdir -p /root/Step3-VL-10B-Base-webui cd /root/Step3-VL-10B-Base-webui # 2. 安装系统依赖 echo "步骤2:安装系统依赖..." apt-get update apt-get install -y python3-pip python3-venv git wget curl supervisor # 3. 创建Python虚拟环境 echo "步骤3:创建Python虚拟环境..." python3 -m venv venv source venv/bin/activate # 4. 安装Python依赖 echo "步骤4:安装Python依赖..." pip install --upgrade pip # 安装PyTorch(根据你的CUDA版本选择) pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # 安装其他依赖 pip install gradio==3.50.2 pip install transformers==4.36.2 pip install accelerate==0.25.0 pip install Pillow==10.1.0 pip install opencv-python==4.8.1 pip install sentencepiece==0.1.99 # 5. 下载模型文件 echo "步骤5:下载模型文件..." mkdir -p /root/ai-models/stepfun-ai cd /root/ai-models/stepfun-ai # 使用git-lfs下载模型(需要先安装git-lfs) apt-get install -y git-lfs git lfs install git clone https://huggingface.co/stepfun-ai/Step3-VL-10B echo "模型下载完成!文件大小约20GB,请耐心等待..." # 6. 下载WebUI代码 echo "步骤6:下载WebUI界面代码..." cd /root/Step3-VL-10B-Base-webui wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/app.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/configuration_step_vl.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/modeling_step_vl.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/processing_step3.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/vision_encoder.py # 7. 创建Supervisor配置文件 echo "步骤7:配置后台服务..." cat > /etc/supervisor/conf.d/step3vl-webui.conf << EOF [program:step3vl-webui] directory=/root/Step3-VL-10B-Base-webui command=/root/Step3-VL-10B-Base-webui/venv/bin/python app.py autostart=true autorestart=true stderr_logfile=/root/Step3-VL-10B-Base-webui/supervisor.log stdout_logfile=/root/Step3-VL-10B-Base-webui/supervisor.log user=root environment=PYTHONPATH="/root/Step3-VL-10B-Base-webui" EOF # 8. 启动服务 echo "步骤8:启动服务..." supervisorctl reread supervisorctl update supervisorctl start step3vl-webui # 9. 检查服务状态 echo "步骤9:检查服务状态..." sleep 5 supervisorctl status step3vl-webui echo "==========================================" echo "部署完成!" echo "Web界面地址:http://localhost:7860" echo "如果是远程服务器,请使用:http://你的服务器IP:7860" echo "" echo "首次加载模型可能需要10-20秒,请耐心等待..." echo "查看日志:tail -f /root/Step3-VL-10B-Base-webui/supervisor.log"

如何使用这个脚本:

  1. 将上面的代码保存到文件,比如叫deploy.sh
  2. 给文件添加执行权限:
    chmod +x deploy.sh
  3. 以root权限运行:
    sudo ./deploy.sh

脚本会自动化完成所有部署步骤,包括安装依赖、下载模型、配置服务等。整个过程可能需要30-60分钟,主要取决于你的网络速度和模型下载时间。

2.3 手动部署步骤(可选)

如果你更喜欢手动操作,或者想了解每个步骤的细节,可以按照下面的步骤来:

步骤1:创建项目目录

mkdir -p /root/Step3-VL-10B-Base-webui cd /root/Step3-VL-10B-Base-webui

步骤2:设置Python环境

python3 -m venv venv source venv/bin/activate

步骤3:安装依赖包

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip install gradio transformers accelerate Pillow opencv-python sentencepiece

步骤4:下载模型文件

# 安装git-lfs(如果还没安装) apt-get install git-lfs git lfs install # 克隆模型仓库 mkdir -p /root/ai-models/stepfun-ai cd /root/ai-models/stepfun-ai git clone https://huggingface.co/stepfun-ai/Step3-VL-10B

步骤5:下载WebUI代码

cd /root/Step3-VL-10B-Base-webui # 下载所有必要的文件 wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/app.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/configuration_step_vl.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/modeling_step_vl.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/processing_step3.py wget https://raw.githubusercontent.com/stepfun-ai/Step3-VL/main/webui/vision_encoder.py

步骤6:配置后台服务

# 安装Supervisor apt-get install supervisor # 创建配置文件 cat > /etc/supervisor/conf.d/step3vl-webui.conf << EOF [program:step3vl-webui] directory=/root/Step3-VL-10B-Base-webui command=/root/Step3-VL-10B-Base-webui/venv/bin/python app.py autostart=true autorestart=true stderr_logfile=/root/Step3-VL-10B-Base-webui/supervisor.log stdout_logfile=/root/Step3-VL-10B-Base-webui/supervisor.log user=root environment=PYTHONPATH="/root/Step3-VL-10B-Base-webui" EOF # 启动服务 supervisorctl reread supervisorctl update supervisorctl start step3vl-webui

2.4 验证部署是否成功

部署完成后,我们需要检查一下服务是否正常运行:

# 检查服务状态 supervisorctl status step3vl-webui # 查看日志 tail -20 /root/Step3-VL-10B-Base-webui/supervisor.log

如果看到类似下面的输出,说明服务正在运行:

step3vl-webui RUNNING pid 12345, uptime 0:05:30

现在打开浏览器,访问http://localhost:7860(如果是远程服务器,替换为你的服务器IP),应该能看到Web界面了。

3. 快速上手:你的第一个图文问答

服务启动后,让我们来试试这个模型到底有多厉害。我会带你完成几个实际例子,让你快速掌握使用方法。

3.1 访问Web界面

在浏览器中输入地址:

  • 本地运行:http://localhost:7860
  • 远程服务器:http://你的服务器IP:7860

你会看到一个简洁的界面,主要分为三个区域:

  1. 左侧:图片上传区域
  2. 中间:问题输入框和发送按钮
  3. 右侧:对话历史记录

界面设计得很直观,即使第一次用也能很快上手。

3.2 基础使用:上传图片并提问

让我们从一个简单的例子开始:

第一步:上传图片点击左侧的“上传图片”按钮,选择一张你想分析的图片。支持常见的图片格式:JPG、PNG、WebP等。

第二步:输入问题在问题输入框中,输入你想问的问题。比如:

请描述这张图片的内容

第三步:点击发送点击“发送”按钮,等待模型回答。首次使用时,模型需要加载到显存中,可能需要10-20秒。之后的请求会快很多,通常2-5秒就能得到回复。

第四步:查看结果模型的回答会显示在右侧的对话区域。你可以继续提问,进行多轮对话。

3.3 实际案例演示

为了让你更清楚这个模型能做什么,我准备了几个具体的例子:

案例1:商品图片分析上传一张商品图片,比如一个水杯,然后问:

这个水杯是什么材质的?容量大概多少?

模型可能会回答:

这是一个不锈钢保温杯,双层真空设计。从图片中的比例来看,容量大约在500毫升左右。杯身有磨砂处理,杯盖是塑料材质,带有提手设计。

案例2:图表数据提取上传一张销售数据的柱状图,然后问:

哪个季度的销售额最高?具体是多少?

模型会识别图表中的文字和数据,给出准确答案。

案例3:数学题解答上传一道带图的数学题,比如几何题,然后问:

计算图中阴影部分的面积。

模型会分析图形,进行数学计算,给出解题步骤和答案。

3.4 调整生成参数(进阶功能)

如果你对回答质量有更高要求,可以调整生成参数。点击“生成参数”展开面板,你会看到几个重要的设置:

温度(Temperature)这个参数控制回答的随机性:

  • 设为0:每次都会给出相同的回答(确定性高)
  • 设为0.7:平衡创意和准确性(推荐值)
  • 设为1.0:回答更有创意,但可能不准确

最大生成长度控制回答的最大长度:

  • 512:适合大多数情况
  • 1024:需要详细回答时
  • 256:只需要简短回答时

Top-P采样控制词汇选择的多样性,通常保持0.9即可。

我的建议是:刚开始使用时,保持默认设置。如果发现回答太啰嗦,就减小最大长度;如果回答缺乏创意,就提高温度值。

4. 实用技巧与高级功能

掌握了基本用法后,让我们来看看一些实用技巧和高级功能,让你的使用体验更好。

4.1 如何提问效果更好

模型的回答质量很大程度上取决于你怎么提问。这里有一些小技巧:

技巧1:问题要具体不要问“这张图怎么样?”,而是问:

请描述图片中的场景、人物、物体和颜色。

技巧2:分步骤提问对于复杂问题,可以拆分成多个小问题:

1. 图片中有哪些文字? 2. 这些文字是什么意思? 3. 根据文字内容,这张图片的主题是什么?

技巧3:指定回答格式如果你需要特定格式的回答,可以在问题中说明:

请用表格形式列出图片中的所有物体及其颜色。

或者:

请分点说明图片的构图特点: 1. 对称性 2. 色彩搭配 3. 视觉焦点

4.2 常用问题模板

我整理了一些常用的问题模板,你可以直接复制使用:

图片描述类:

请详细描述这张图片的内容,包括场景、人物、物体、颜色和氛围。

文字识别类:

提取图片中的所有文字,按出现的顺序排列。

物体计数类:

图片中有多少个人?请用数字回答。

颜色分析类:

分析图片的主要颜色和配色方案。

数学推理类:

根据图中的数据,计算平均值和总和。

4.3 批量处理技巧

虽然Web界面一次只能处理一张图片,但你可以通过脚本实现批量处理。这里有一个简单的Python脚本示例:

import requests import base64 import json import os class Step3VLClient: def __init__(self, server_url="http://localhost:7860"): self.server_url = server_url def process_image(self, image_path, question): """处理单张图片""" # 读取图片并编码 with open(image_path, "rb") as f: image_data = base64.b64encode(f.read()).decode('utf-8') # 准备请求数据 payload = { "image": image_data, "question": question, "max_length": 512, "temperature": 0.7 } # 发送请求 response = requests.post( f"{self.server_url}/api/predict", json=payload, timeout=60 ) if response.status_code == 200: return response.json()["answer"] else: return f"错误:{response.status_code}" def batch_process(self, image_dir, questions): """批量处理图片""" results = [] # 遍历目录中的所有图片 for filename in os.listdir(image_dir): if filename.lower().endswith(('.png', '.jpg', '.jpeg', '.webp')): image_path = os.path.join(image_dir, filename) print(f"处理图片:{filename}") # 对每张图片问所有问题 for i, question in enumerate(questions): answer = self.process_image(image_path, question) results.append({ "image": filename, "question": question, "answer": answer }) print(f" 问题{i+1}: {question[:50]}...") print(f" 回答: {answer[:100]}...") return results # 使用示例 if __name__ == "__main__": client = Step3VLClient() # 要问的问题列表 questions = [ "描述图片的主要内容", "提取图片中的文字", "分析图片的颜色搭配" ] # 批量处理图片 results = client.batch_process("./images", questions) # 保存结果 with open("results.json", "w", encoding="utf-8") as f: json.dump(results, f, ensure_ascii=False, indent=2) print(f"处理完成,共处理{len(results)}个问答对")

这个脚本可以批量处理一个文件夹中的所有图片,对每张图片问多个问题,然后把结果保存到JSON文件中。

4.4 集成到其他应用

如果你想把Step3-VL-10B集成到自己的应用中,可以通过API调用。Web界面实际上提供了一个简单的API接口:

import requests import base64 def ask_image_question(image_path, question, server_url="http://localhost:7860"): """通过API向模型提问""" # 读取并编码图片 with open(image_path, "rb") as f: image_b64 = base64.b64encode(f.read()).decode('utf-8') # 准备请求 payload = { "image": image_b64, "question": question, "max_length": 512, "temperature": 0.7, "top_p": 0.9 } try: response = requests.post( f"{server_url}/api/predict", json=payload, timeout=30 ) if response.status_code == 200: return response.json()["answer"] else: return f"API错误:{response.status_code}" except requests.exceptions.RequestException as e: return f"请求失败:{str(e)}" # 使用示例 answer = ask_image_question( image_path="product.jpg", question="这个产品的主要特点是什么?" ) print(answer)

这样你就可以在自己的Python程序、Web应用或者其他系统中调用这个模型了。

5. 常见问题与解决方案

在使用过程中,你可能会遇到一些问题。这里我整理了一些常见问题和解决方法。

5.1 服务启动问题

问题:Web界面打不开,显示“连接被拒绝”

解决方法:

  1. 检查服务是否运行:

    supervisorctl status step3vl-webui
  2. 如果服务没有运行,启动它:

    supervisorctl start step3vl-webui
  3. 查看日志,找错误原因:

    tail -50 /root/Step3-VL-10B-Base-webui/supervisor.log

问题:模型加载失败,显示“CUDA out of memory”

解决方法:

  1. 检查显存是否足够:

    nvidia-smi
  2. 如果显存不足,可以尝试:

    • 减小图片分辨率(模型支持最高728×728)
    • 关闭其他占用显存的程序
    • 使用--low-vram模式(如果支持)

5.2 使用过程中的问题

问题:上传图片后没有反应

解决方法:

  1. 首次使用需要加载模型,等待10-20秒
  2. 检查图片格式是否支持(JPG、PNG、WebP)
  3. 检查图片大小,过大图片可能需要更长时间处理
  4. 刷新页面重试

问题:回答质量不好或不相关

解决方法:

  1. 尝试更具体的问题描述
  2. 调整温度参数到0.3-0.5(降低随机性)
  3. 确保图片清晰度足够
  4. 对于复杂问题,尝试拆分成多个简单问题

问题:回答速度很慢

解决方法:

  1. 检查GPU使用率:nvidia-smi
  2. 减小最大生成长度(比如从512减到256)
  3. 降低图片分辨率
  4. 确保没有其他程序占用大量计算资源

5.3 性能优化建议

如果你的服务器配置不是特别高,可以尝试这些优化方法:

优化1:调整批处理大小app.py中,可以调整批处理大小:

# 修改这行代码 model = model.eval().half().cuda() # 使用半精度浮点数,减少显存占用

优化2:启用缓存如果经常处理相同的图片,可以启用缓存机制:

from functools import lru_cache @lru_cache(maxsize=100) def process_image_cached(image_hash, question): # 处理逻辑

优化3:异步处理对于大量请求,可以使用异步处理:

import asyncio from concurrent.futures import ThreadPoolExecutor executor = ThreadPoolExecutor(max_workers=2) async def process_async(image_path, question): loop = asyncio.get_event_loop() result = await loop.run_in_executor( executor, process_image_sync, image_path, question ) return result

5.4 服务管理命令汇总

为了方便查阅,这里整理了一些常用的服务管理命令:

# 查看服务状态 supervisorctl status step3vl-webui # 启动服务 supervisorctl start step3vl-webui # 停止服务 supervisorctl stop step3vl-webui # 重启服务 supervisorctl restart step3vl-webui # 查看日志 tail -f /root/Step3-VL-10B-Base-webui/supervisor.log # 查看最后50行日志 tail -50 /root/Step3-VL-10B-Base-webui/supervisor.log # 重新加载配置 supervisorctl reread supervisorctl update

6. 总结与下一步建议

通过这篇教程,你应该已经成功部署了Step3-VL-10B,并且掌握了基本的使用方法。让我们回顾一下今天学到的内容:

6.1 核心要点回顾

  1. Step3-VL-10B是什么:一个强大的视觉语言模型,能看懂图片、识别文字、进行复杂推理
  2. 部署过程:从环境准备到一键部署,我提供了完整的脚本和手动步骤
  3. 基本使用:通过Web界面,上传图片、提问、获取回答,简单三步就能用起来
  4. 实用技巧:如何提问效果更好、常用问题模板、批量处理技巧
  5. 问题解决:常见问题的排查方法和解决方案

这个模型最让我印象深刻的是它的推理能力。不仅仅是简单的图片描述,它真的能理解图片内容,进行逻辑分析和数学计算。比如你上传一张电路图,它能分析电路原理;上传一张数学题,它能给出解题步骤。

6.2 实际应用场景

根据我的使用经验,这个模型在以下几个场景特别有用:

教育领域

  • 辅导孩子作业,特别是带图的数学题、物理题
  • 分析历史图片、地理图表
  • 解释科学实验图示

工作场景

  • 分析产品设计图
  • 提取图表数据
  • 理解技术文档中的示意图
  • 审核广告图片内容

个人使用

  • 分析旅游照片
  • 理解复杂的说明书图示
  • 学习新知识时辅助理解图表

6.3 下一步学习建议

如果你对这个模型感兴趣,想进一步探索,我建议:

  1. 尝试更多问题类型:不要局限于我给的例子,尝试各种奇怪的问题,看看模型的边界在哪里
  2. 调整参数实验:试试不同的温度、最大长度设置,观察回答的变化
  3. 集成到自己的项目:用我提供的API示例,把它集成到你的应用或工作流中
  4. 学习原理:如果你对技术原理感兴趣,可以阅读模型的技术论文,了解它是如何工作的

6.4 资源推荐

  • 官方文档:https://huggingface.co/stepfun-ai/Step3-VL-10B
  • 技术论文:https://arxiv.org/abs/2601.09668
  • GitHub仓库:https://github.com/stepfun-ai/Step3-VL
  • 社区讨论:Hugging Face的模型页面有讨论区,可以和其他用户交流

最后我想说,AI工具的价值在于实际应用。部署好模型只是第一步,真正重要的是你怎么用它来解决实际问题。我建议你先从一两个实际场景开始,比如用来自动分析工作报表中的图表,或者辅导孩子数学作业。用起来,遇到问题解决问题,这样才能真正掌握这个工具。

希望这篇教程对你有帮助。如果在使用过程中遇到任何问题,或者有新的发现和技巧,欢迎分享。技术的学习之路,我们一起前行。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 23:45:40

conda编译安装MSDeformable Attention

只需要下面两句&#xff0c;不需要export PATH&#xff0c;否则怕使用全局nvcc&#xff1a;export CPATH$CPATH:/usr/local/cuda-12.8/targets/x86_64-linux/include export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/usr/local/cuda-12.8/targets/x86_64-linux/lib如果报错/nvvm/bin/…

作者头像 李华
网站建设 2026/4/22 23:41:22

毕业季论文双检通关不内耗:百考通AI查重+降AIGC率实战指南

告别通宵改写与无效焦虑&#xff0c;一个工具搞定两大关卡 又到一年毕业季&#xff0c;论文审核的门槛已悄然升级。单纯通过“重复率”检测就能顺利毕业的日子一去不复返。如今&#xff0c;以知网、维普、万方为代表的学术平台纷纷启用“查重AIGC检测”双重机制&#xff0c;超过…

作者头像 李华
网站建设 2026/4/22 23:36:27

聚合平台优先,还是官方直连优先?一次技术选型辩论实录

继续&#xff0c;第九种风格&#xff1a;辩论体&#xff08;正反双方&#xff09;。 这种很适合技术社区&#xff0c;像在看架构评审&#xff0c;不像广告。 聚合平台优先&#xff0c;还是官方直连优先&#xff1f;一次技术选型辩论实录 原创 发布时间&#xff1a;2026-04-14 …

作者头像 李华
网站建设 2026/4/22 23:36:02

CustomTkinter:解决Python GUI现代化渲染与跨平台适配的技术架构

CustomTkinter&#xff1a;解决Python GUI现代化渲染与跨平台适配的技术架构 【免费下载链接】CustomTkinter A modern and customizable python UI-library based on Tkinter 项目地址: https://gitcode.com/gh_mirrors/cu/CustomTkinter Python的Tkinter框架在桌面GUI…

作者头像 李华
网站建设 2026/4/22 23:35:18

RoCE测试(笔记)

1、检查服务器是否已安装 ROCE 驱动 查看华为驱动&#xff1a;lsmod | grep hi 查看 Mellanox 驱动&#xff1a;lsmod | grep mlx5 若无输出&#xff0c;说明未安装驱动&#xff0c;需手动安装 2、下载并安装对应驱动 华为驱动&#xff1a;SP220&SP600 网卡 驱动源…

作者头像 李华