Qwen3-ASR-0.6B Streamlit高级功能:添加语音波形可视化+识别结果逐句高亮
1. 项目概述
Qwen3-ASR-0.6B是基于阿里云通义千问团队开源的轻量级语音识别模型开发的本地智能语音转文字工具。这个6亿参数的模型针对GPU进行了FP16半精度推理优化,支持自动语种检测(中文/英文)和中英文混合识别,能够处理WAV/MP3/M4A/OGG等多种音频格式。
本教程将重点介绍如何为这个工具添加两个高级功能:
- 语音波形可视化:直观展示音频波形图
- 识别结果逐句高亮:动态显示识别过程中的文本
2. 环境准备与快速部署
2.1 基础环境搭建
首先确保已安装Python 3.8+和必要的依赖库:
pip install torch streamlit librosa matplotlib pydub2.2 模型下载与加载
从Hugging Face下载Qwen3-ASR-0.6B模型:
from transformers import AutoModelForSpeechSeq2Seq, AutoProcessor model = AutoModelForSpeechSeq2Seq.from_pretrained("Qwen/Qwen3-ASR-0.6B", torch_dtype=torch.float16) processor = AutoProcessor.from_pretrained("Qwen/Qwen3-ASR-0.6B")3. 语音波形可视化实现
3.1 音频波形绘制原理
音频波形可视化可以帮助用户直观了解音频的振幅变化和静音段分布。我们使用librosa库提取音频数据,matplotlib绘制波形图。
3.2 代码实现
在Streamlit中添加波形可视化组件:
import librosa import matplotlib.pyplot as plt import streamlit as st def plot_waveform(audio_path): y, sr = librosa.load(audio_path, sr=None) fig, ax = plt.subplots(figsize=(10, 3)) librosa.display.waveshow(y, sr=sr, ax=ax) ax.set_title('Audio Waveform') ax.set_xlabel('Time (s)') ax.set_ylabel('Amplitude') st.pyplot(fig)在Streamlit界面中调用:
if audio_file: plot_waveform(audio_file) st.audio(audio_file)4. 识别结果逐句高亮
4.1 实时识别与文本更新
要实现逐句高亮效果,我们需要修改识别过程,使其能够分段返回结果:
def transcribe_streaming(audio_path): # 加载音频文件 audio_input, _ = librosa.load(audio_path, sr=16000) # 分块处理 chunk_size = 16000 * 5 # 5秒的块 for i in range(0, len(audio_input), chunk_size): chunk = audio_input[i:i+chunk_size] inputs = processor(chunk, sampling_rate=16000, return_tensors="pt") # 识别当前块 outputs = model.generate(**inputs) text = processor.batch_decode(outputs, skip_special_tokens=True)[0] yield text # 逐块返回识别结果4.2 Streamlit动态更新界面
在Streamlit中实现动态高亮效果:
result_container = st.empty() full_text = "" for partial_text in transcribe_streaming(audio_file): full_text += partial_text + " " # 使用HTML实现高亮效果 highlighted = f'<span style="background-color: #ffff00">{partial_text}</span>' result_container.markdown(f"{full_text[:-len(partial_text)-1]} {highlighted}", unsafe_allow_html=True)5. 完整界面整合
5.1 主界面布局
将上述功能整合到Streamlit主界面:
import streamlit as st st.title("Qwen3-ASR-0.6B 智能语音识别") audio_file = st.file_uploader("上传音频文件", type=["wav", "mp3", "m4a", "ogg"]) if audio_file: # 保存临时文件 with open("temp_audio", "wb") as f: f.write(audio_file.getbuffer()) # 显示波形图 st.subheader("音频波形") plot_waveform("temp_audio") # 开始识别按钮 if st.button("开始识别"): st.subheader("识别结果") result_placeholder = st.empty() full_text = "" for partial_text in transcribe_streaming("temp_audio"): full_text += partial_text + " " highlighted = f'<span style="background-color: #ffff00">{partial_text}</span>' result_placeholder.markdown(f"{full_text[:-len(partial_text)-1]} {highlighted}", unsafe_allow_html=True)5.2 界面优化建议
- 添加进度条显示识别进度
- 增加语种检测结果显示
- 优化高亮颜色和样式
- 添加复制结果按钮
6. 总结与进阶建议
通过本教程,我们为Qwen3-ASR-0.6B语音识别工具添加了两个实用的高级功能:
- 语音波形可视化:帮助用户直观了解音频质量
- 逐句高亮识别:提升用户体验,实时展示识别过程
进阶改进建议:
- 添加VAD(语音活动检测)功能,自动跳过静音段
- 实现多说话人分离和标注
- 增加标点符号自动添加功能
- 优化长音频处理的内存管理
这些功能的添加使得原本已经强大的语音识别工具更加完善,为用户提供了更好的交互体验和可视化反馈。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。