Windows环境上CUDA和vLLM的安装

前言

在测试模型的时候,按照模型的说明安装依赖,发现vLLM一直不成功。

原来是在Windows平台没有我所选版本的依赖。

注意

vLLM只能在英伟达的GPU上使用。

vLLM 官方 wheel 仅提供 cu118/cu121/cu124,无 Windows 原生支持

Windows 可以通过WSL2 内安装vLLM。

uv文档

uv - Astral 文档

vLLM文档

快速入门 - vLLM - vLLM 文档

驱动安装

Windows终端执行

从NVIDIA官网下载对应显卡的Windows驱动,安装完成后通过nvidia-smi验证。

查看能安装的CUDA版本

1
nvidia-smi

注意:

nvidia-smi 显示的是 驱动支持的最高 CUDA 运行时版本,不是你安装的 CUDA Toolkit 版本。

如果不显示则要先安装驱动

下载 NVIDIA 官方驱动 | NVIDIA

WSL2配置

通过PowerShell安装Linux子系统,推荐使用Ubuntu 22.04 LTS发行版。

1
wsl --install

我这里使用上面命令安装总是卡住不动,这里推荐在Microsoft Store 上下载

注意这里安装Ubuntu 22.04.5 LTS版本

安装后需在Windows设置中启用”虚拟机平台”和”WSL2”选项,并通过wsl --set-default-version 2确保默认使用WSL2。

1
wsl --set-default-version 2

CUDA Toolkit安装

查看CUDA是否安装

1
nvcc --version

查看最高支持的CUDA版本

1
nvidia-smi

查看结果

image-20260202183536547

注意:

nvidia-smi 显示的是 驱动支持的最高 CUDA 运行时版本,不是你安装的 CUDA Toolkit 版本。

我这里是13.0,也就是说CUDA Toolkit下载13.0及以下的版本就行。

下载地址

CUDA Toolkit Archive | NVIDIA Developer

推荐版本 CUDA Toolkit 12.4

  • 生态最成熟(PyTorch/TensorFlow/vLLM 都支持)
  • Windows 安装包稳定
  • NVIDIA 官方长期维护

在线安装

1
2
3
4
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-4

这里安装比较费时,请耐心等待。

配置环境变量

1
2
3
echo 'export PATH=/usr/local/cuda-12.4/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.4/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

查看CUDA是否安装

1
nvcc --version

uv安装

详情参考

Python包管理工具uv的使用

自动安装

1
curl -LsSf https://astral.org.cn/uv/install.sh | sh

手动安装

1
2
3
4
5
# 下载 + 安装到 ~/.local/bin
wget https://github.com/astral-sh/uv/releases/latest/download/uv-x86_64-unknown-linux-gnu.tar.gz
tar -xzf uv-x86_64-unknown-linux-gnu.tar.gz
mkdir -p ~/.local/bin
mv uv ~/.local/bin/

无论上面哪种方式,都没有添加环境变量。

添加环境变量

1
2
3
echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
uv --version # 验证

vLLM安装

vLLM安装

1
2
3
4
5
mkdir vllm_test01
cd vllm_test01
uv venv --python 3.12
source .venv/bin/activate
uv pip install vllm --torch-backend=auto

查看安装的版本

1
vllm -v

环境测试

查看PyTorch是否使用CUDA

cuda_info.py

1
2
3
4
5
import torch

print(torch.__version__)
print(torch.cuda.is_available()) # 应该输出 True
print(torch.device("cuda" if torch.cuda.is_available() else "cpu"))

测试

1
python cuda_info.py

vllm安装后torch作为依赖已经安装了。

如果想指定版本安装可以参看下文

安装支持CUDA的PyTorch

卸载当前 CPU 版本的 PyTorch

1
pip uninstall torch torchvision torchaudio

安装 带 CUDA 支持的 PyTorch

1
2
# 对于 CUDA 12.6
pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu126

可以在这个地方查看

Get Started