确保基础环境:拥有一个支持 CUDA 的 NVIDIA 显卡、正确的 Windows 驱动、已启用 WSL2 并安装了 Ubuntu 发行版。
配置 WSL2 的 CUDA 支持:在 WSL2 内安装 NVIDIA CUDA Toolkit 和 cuDNN。
创建 Python 虚拟环境:避免与系统 Python 环境冲突。
安装依赖库:安装 PyTorch(GPU 版本)及其他必要的库。
获取并运行 Qwen-ASR 模型:从 ModelScope 或 Hugging Face 下载模型并进行推理。
检查显卡和驱动:
确保您的 NVIDIA 显卡支持 CUDA。可以查阅 NVIDIA CUDA GPU 列表。
在 Windows 上,下载并安装最新的 NVIDIA 显卡驱动。推荐通过 NVIDIA 官网或 GeForce Experience 安装。
以管理员身份打开 PowerShell 或命令提示符,运行:
wsl --install -d Ubuntu-22.04
安装 NVIDIA CUDA Driver for WSL2:
这是最关键的一步。您需要在 Windows 侧安装 专门支持 WSL 的 NVIDIA 驱动。
Windows Driver for WSL字样。wsl。sudo apt update && sudo apt upgrade -y
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt-get update sudo apt-get -y install cuda-toolkit-12-4
# 将 <version> 替换为实际版本 tar -xvf cudnn-linux-x86_64-<version>.tar.xz sudo cp cudnn-*/include/cudnn*.h /usr/local/cuda/include/ sudo cp -P cudnn-*/lib/libcudnn* /usr/local/cuda/lib64/ sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
cudnn-linux-x86_64-8.x.x.x_cudaX.Y-archive.tar.xz)。~/.bashrc或 ~/.zshrc):nano ~/.bashrc
export PATH=/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH export CUDA_HOME=/usr/local/cuda
source ~/.bashrc
nvcc --version检查 CUDA 编译器版本。nvidia-smi。这个命令应该能在 WSL2 内直接运行,并显示出与 Windows 下类似的 GPU 信息,包括驱动版本和可用的 GPU。这是验证 WSL2 GPU 支持是否成功的关键标志。wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh # 按照提示操作,安装完成后重启终端或运行 `source ~/.bashrc`
conda create -n qwen-asr python=3.10 -y conda activate qwen-asr
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
pip install modelscope # 如果需要进行音频处理,可能需要安装以下库 pip install soundfile librosa torchaudio # 对于 Qwen-Audio 系列模型,可能需要特定运行时 pip install modelscope[audio]
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
# 选择模型。可以去 ModelScope 官网查找最新版本的 Qwen-ASR 模型。
# 例如,可能是 "Qwen/Qwen-Audio", "Qwen/Qwen-Audio-Chat" 等。
model_id = "qwenaudio/Qwen2-Audio-7B-Instruct" # 示例模型,请替换为实际模型名
# 创建语音识别管道
# 如果首次运行,会自动从网上下载模型,请耐心等待。
pipe = pipeline(
task=Tasks.auto_speech_recognition,
model=model_id,
device="cuda:0" # 指定使用 GPU,如果有多卡可以指定 "cuda:1" 等
)
# 指定要识别的音频文件路径(支持 wav, mp3 等常见格式)
audio_path = "your_audio_file.wav" # 请替换为你的音频文件路径
# 进行推理
result = pipe(audio_path)
# 打印识别结果
print("识别结果:", result["text"])qwen_asr_demo.py。test.wav)放在 WSL2 文件系统中,并记下路径。python qwen_asr_demo.py
nvidia-smi来观察 GPU 是否被占用,以确认加速是否生效。nvidia-smi在 WSL2 中报错或不显示 GPU:wsl --update更新)。nvcc --version) 和安装 PyTorch 时指定的 CUDA 版本是否匹配。LD_LIBRARY_PATH, CUDA_HOME)是否正确设置。model=“/path/to/local/model”的方式加载。batch_size=1或 torch_dtype=torch.float16来减少显存占用。
最新评论: