为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。
原文博客地址:ollama Windows部署-旅程blog (d)
官方下载地址:ollama/download
双击安装包会默认安装在C盘
配置模型保存位置
OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。
OLLAMA_MODELS : 指定ollama模型的存放路径
根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。
终端输入ipconfig:查看IP地址
然后打开浏览器测试输入:ip地址:11434
出现ollama is running,表示配置成功
本文发布于:2025-03-21 13:27:00,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/1742534838582737.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |