news 2026/5/14 18:46:07

Qwen-audio-chat的环境安装

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Qwen-audio-chat的环境安装

1. 环境

先安装一个python=3.10的conda环境,然后安装如下库文件

方法一:requirement安装

✅ Qwen-Audio-Chat 安装环境依赖清单
📁 1. requirements.txt(推荐方式)

# Qwen-Audio-Chat 环境依赖 matplotlib requests tiktoken einops transformers_stream_generator transformers==4.39.0 accelerate torch==2.3.0+cu121 torchvision==0.18.0+cu121 torchaudio==2.3.0+cu121

方法二:pip逐个安装

🐍 2. 安装命令(使用清华源 + PyTorch 源) # 安装基础库(含 torch/torchvision/torchaudio) pip install matplotlib requests tiktoken einops transformers_stream_generator accelerate -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装特定版本的 Transformers pip install transformers==4.39.0 -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装 PyTorch 及相关(CUDA 12.1 版本) pip install torch==2.3.0+cu121 \ torchvision==0.18.0+cu121 \ torchaudio==2.3.0+cu121 \ --extra-index-url https://download.pytorch.org/whl/cu121 \ -i https://pypi.tuna.tsinghua.edu.cn/simple

2. flash_attn安装

2.1 问题

python test_qwen_audio_demo.py audio_start_id: 155163, audio_end_id: 155164, audio_pad_id: 151851. The model is automatically converting to bf16 for faster inference. If you want to disable the automatic precision, please manually add bf16/fp16/fp32=True to "AutoModelForCausalLM.from_pretrained". Try importing flash-attention for faster inference... Warning: import flash_attn rotary fail, please install FlashAttention rotary to get higher efficiency https://github.com/Dao-AILab/flash-attention/tree/main/csrc/rotary Warning: import flash_attn rms_norm fail, please install FlashAttention layer_norm to get higher efficiency https://github.com/Dao-AILab/flash-attention/tree/main/csrc/layer_norm Warning: import flash_attn fail, please install FlashAttention to get higher efficiency https://github.com/Dao-AILab/flash-attention

⚠️ 警告信息(非致命)

1. FlashAttention 导入失败

Warning: import flash_attn fail, please install FlashAttention to get higher efficiency...

原因: 这些警告说明你当前环境中没有安装 FlashAttention,这是一个基于 CUDA 的高性能注意力机制库,可以显著提升大模型的训练和推理效率。

🔧 注意:你需要根据你的 CUDA 版本选择对应的 wheel 文件。比如上面这个链接适用于 CUDA 11.8。你可以在自己的系统上用 nvcc --version 查看 CUDA 版本。
(audio_chat) root@# nvcc --version nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2024 NVIDIA Corporation Built on Tue_Feb_27_16:19:38_PST_2024 Cuda compilation tools, release 12.4, V12.4.99 Build cuda_12.4.r12.4/compiler.33961263_0

✅ 当前 CUDA 版本:12.4 这是目前较新的版本,兼容性很好。FlashAttention 支持 CUDA 11.x 到 12.x 的版本(包括 12.4)。

-rw-r--r-- 1 root root 183291190 Apr 30 07:42 flash_attn-2.7.0.post1+cu12torch2.5cxx11abiFALSE-cp310-cp310-linux_x86_64.whl -rw-rw-r-- 1 1005 1006 255951853 Dec 3 02:01 flash_attn-2.8.3+cu12torch2.4cxx11abiFALSE-cp310-cp310-linux_x86_64.whl 但是分别安装这两个文件后,flash_attn仍然不成功
(audio_chat) root@# pip show flash-attn Name: flash_attn Version: 2.8.3

🚀 接下来需要验证是否可以正常导入 FlashAttention

请运行以下命令来测试是否可以成功导入 flash_attn 模块:

python -c "import flash_attn; print(flash_attn.__version__)"

(audio_chat) root@# python -c "import flash_attn; print(flash_attn.version)" Traceback (most recent call last): File "<string>", line 1, in <module> File "/envs/audio_chat/lib/python3.10/site-packages/flash_attn/init.py", line 3, in <module> from flash_attn.flash_attn_interface import ( File "envs/audio_chat/lib/python3.10/site-packages/flash_attn/flash_attn_interface.py", line 15, in <module> import flash_attn_2_cuda as flash_attn_gpu ImportError: /envs/audio_chat/lib/python3.10/site-packages/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.so: undefined symbol: _ZNK3c105Error4whatEv

分析:

你遇到的错误是: ImportError: /data/wuwenliang/anaconda3_1/envs/audio_chat/lib/python3.10/site-packages/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.so: undefined symbol: _ZNK3c105Error4whatEv 这个错误通常是因为 PyTorch 版本与 FlashAttention 不兼容,或者 编译时使用的 PyTorch 与当前运行环境中的 PyTorch 不一致。 🔍 错误分析 _ZNK3c105Error4whatEv 是 c10::Error::what() 的 C++ 符号名。 这说明 FlashAttention 编译生成的 .so 文件(动态库)中调用了一个 PyTorch 的内部符号,但在当前环境中找不到它。这通常发生在以下情况: FlashAttention 是用一个旧版本的 PyTorch 编译的。 当前运行环境使用的是另一个版本的 PyTorch。 或者 PyTorch 安装不完整、被污染等。
✅ 方法一:卸载并重新安装 FlashAttention(推荐) 卸载当前 FlashAttention: pip uninstall flash-attn 确保你的 PyTorch 版本已安装,并查看其版本: python -c "import torch; print(torch.__version__)"
(audio_chat) root@# python -c "import torch; print(torch.version)" 2.3.0+cu121
你当前安装的 PyTorch 版本是 2.3.0+cu121,也就是基于 CUDA 12.1 的版本。 ❗️问题根源 你之前尝试安装的是: FlashAttention wheel 匹配 CUDA 12.4 但你的 PyTorch 是 CUDA 12.1 这就导致了不兼容的问题。FlashAttention 编译时使用的 CUDA 版本(12.4)与 PyTorch 使用的 CUDA 版本(12.1)不一致,因此在运行时出现了符号未定义错误( undefined symbol: _ZNK3c105Error4whatEv )。

🚀 方法二:降级 FlashAttention 到匹配 CUDA 12.1 的版本

如果你不想升级 PyTorch,可以安装一个与 PyTorch CUDA 12.1 兼容的 FlashAttention 版本。

下载flash-attn:

https://github.com/Dao-AILab/flash-attention/releases/tag/v2.7.2.post1

-rw-r--r-- 1 root root 150M May 13 09:46 flash_attn-2.7.2.post1+cu12torch2.3cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

安装:

(audio_chat) root@e# pip install flash_attn-2.7.2.post1+cu12torch2.3cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

验证:

✅ 验证安装是否成功 安装完成后,执行以下命令验证 FlashAttention 是否能被正确导入: python -c "import flash_attn; print(flash_attn.__version__)"
(audio_chat) root@# python -c "import flash_attn; print(flash_attn.version)" 2.7.2.post1

用flash-attn环境运行代码:

(audio_chat) root@# python test_qwen_audio_demo.py audio_start_id: 155163, audio_end_id: 155164, audio_pad_id: 151851. The model is automatically converting to bf16 for faster inference. If you want to disable the automatic precision, please manually add bf16/fp16/fp32=True to "AutoModelForCausalLM.from_pretrained". Try importing flash-attention for faster inference... Warning: import flash_attn rms_norm fail, please install FlashAttention layer_norm to get higher efficiency https://github.com/Dao-AILab/flash-attention/tree/main/csrc/layer_norm Loading checkpoint shards: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 9/9 [00:07<00:00, 1.19it/s] 这个音频的asr内容是:"病吧你老拆穿人家干啥"。 这个音频的内容是辱骂和诅咒。 好的,这是音频转的文本:"*******"。

参考文章:

https://damodev.csdn.net/68a6d2904e4959284dabe1a2.html

https://modelscope.cn/models/Qwen/Qwen-Audio-Chat/summary

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/14 18:45:44

基于 Simulink 的电池管理系统(BMS)SOC/SOH 估算算

目录 🎯 一、 核心目标与系统架构 系统整体架构图 🛠️ 二、 手把手建模步骤 第一步:搭建高保真电池模型 (Thevenin 模型) 第二步:SOC 估算——扩展卡尔曼滤波 (EKF) 第三步:SOH 估算——基于 RLS 的参数辨识 第四步:温度补偿 (关键加分项) 📊 三、 仿真结果…

作者头像 李华
网站建设 2026/5/14 18:44:17

【办公类-130-01】20260510豆包图片去文字水印(叠图))

背景需求搭档要做一个“教师讲故事比赛”的PPT背景。四选一&#xff0c;搭档选了一张好看的&#xff0c;这是纯图片&#xff0c;不能修改的。直接放到PPT里。然后搭档又想了想&#xff0c;又选了一张左下图&#xff0c;但是要消除“活动方案几个字”我把这张图单独提出来&#…

作者头像 李华
网站建设 2026/5/14 18:42:30

Python Redis客户端实战:redis-py深度解析

Python Redis客户端实战&#xff1a;redis-py深度解析 引言 在Python开发中&#xff0c;Redis是构建高性能缓存和数据存储的核心技术。作为一名从Rust转向Python的后端开发者&#xff0c;我深刻体会到redis-py在Redis操作方面的优势。redis-py提供了简洁的API和丰富的功能&…

作者头像 李华
网站建设 2026/5/14 18:39:06

量子通信与6G融合:探索未来通信新维度

量子通信与6G融合&#xff1a;探索未来通信新维度 在当今科技飞速发展的时代&#xff0c;通信技术作为连接世界的桥梁&#xff0c;正经历着前所未有的变革。从1G到5G&#xff0c;每一代通信技术的演进都极大地推动了社会进步&#xff0c;而今&#xff0c;6G的研发与探索正悄然拉…

作者头像 李华
网站建设 2026/5/14 18:36:13

2026年文生图片最好的软件横评:6款实测,第1名出乎意料

摘要&#xff1a; 想找文生图片最好的软件&#xff1f;别被营销话术带跑偏。本文实测6款主流文生图片软件&#xff0c;从出图质量、免费程度、操作门槛到商用适配逐一拆解&#xff0c;直接告诉你哪款真的值得用&#xff0c;哪款只是看起来好看。其中有一款"三万同款"…

作者头像 李华
网站建设 2026/5/14 18:35:58

告别Canvas截图!用MediaProjection+Kotlin协程打造高性能屏幕流处理工具

构建高性能Android屏幕流处理框架&#xff1a;MediaProjection与Kotlin协程深度实践 在移动应用开发中&#xff0c;屏幕内容捕获技术正从简单的截图功能演变为复杂的实时流处理系统。传统基于Canvas的截图方案存在明显局限性——无法捕获系统UI层、视频播放内容&#xff0c;且性…

作者头像 李华