Ollama本地部署大模型
1. 安装Ollama
2. 在官网上查找模型列表,确定要部署的模型
本次部署以支持 function call的Qwen-QWQ模型为主
3. 修改下载模型的环境变量
避免模型直装到C盘,添加环境变量
4. 下载模型
ollama run qwq
5. API调试
6. 停止运行模型
本地部署32B的模型对个人电脑性能还是存在一定要求,在不使用的情况下最好停止模型运行,对于经常运行的推荐在云服务器上部署。
若无对大模型的定制要求可以使用互联网上的大模型提供商的API,例如dashscope,硅基流动,百度云千帆等。
# 列出所有运行模型
ollama ps
# 停止运行指定模型
ollama top model:version
7. 使用可视化客户端与大模型进行对话
建议使用cherry studio
- 感谢你赐予我前进的力量
赞赏者名单
因为你们的支持让我意识到写文章的价值🙏
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 葡萄w
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果