先确认一下 vLLM 是否已经安装?如果还没有,你可以用下面的命令安装:
然后,我们编写一个 Python 脚本来运行 vLLM 服务器,并加载你的 Qwen2.5-7B-Instruct 模型:
1. 创建 server.py
在 WSL 终端里,进入你的工作目录并创建 server.py
文件:
然后填入以下代码:
2. 安装依赖
如果你还没有安装 python-dotenv
,先安装:
3. 运行服务器
4. 测试 API
服务器默认在 http://localhost:8000
运行,你可以用 curl
测试:
5. 让外部 AI 助手访问
如果你的 WSL 在局域网内,可以用 0.0.0.0
监听:
然后让 AI 助手访问你的 WSL 机器的 IP 地址。
这样你的 vLLM 就可以通过 API 提供服务了!你可以试试看,看看是否有问题?
声明:本站内容来自公开平台,如若侵犯到您的权益,请联系我们,我们会第一时间删除!联系QQ:502428990。
评论(0)