ollama Windows部署

阅读: 评论:0

ollama Windows部署

前言

为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。

原文博客地址:ollama Windows部署-旅程blog (d)

1. 下载ollama

官方下载地址:ollama/download

2. 环境配置

  1. 双击安装包会默认安装在C盘

    ​​

  2. 配置模型保存位置

    1. ​​

    2. OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。

      OLLAMA_MODELS : 指定ollama模型的存放路径

      根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。

      ​​

3. 测试

3.1 网路配置检测

终端输入ipconfig​:查看IP地址

​​

然后打开浏览器测试输入:ip地址:11434

​​

出现ollama is running,表示配置成功

3.2 模型测试

​​

参考文献

  1. Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)

本文发布于:2025-03-21 13:27:00,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/1742534838582737.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:ollama   Windows
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23