第五篇

阅读: 评论:0

第五篇

第五篇

下载chatglm2-6b模型文件

*** 国内推荐,国内推荐,国内推荐-1 ***
*** 国内推荐-2 ***

下载chatglm3-6b模型文件

*** 国内推荐 ***

方法一:huggingface页面直接点击下载

一个一个下载,都要下载

方法二:snapshot_download下载文件

可以使用如下代码下载

创建下载环境

conda create --name hfhub python=3.10
conda activate hfhub安装
pip install huggingface_hub -i 

编写代码

down_glm2.py

```
from huggingface_hub import snapshot_download
import sysrepo_id = "THUDM/chatglm2-6b"
local_dir = "/opt/models/chatglm2-6b/"
local_dir_use_symlinks = False
revision = "main"
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,revision=revision)```

snapshot_download其他参数
只允许下载部分类型的文件(以JSON为例)
allow_patterns=‘*.json’,

不允许下载部分类型的文件(以JSON为例)
ignore_patterns=[‘*.json’]

执行下

python down_glm2.py如果有超时可以多试几次,
或allow_patterns指定具体文件 
例如:
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,allow_patterns='pytorch_model-00001-of-00007.bin',revision=revision)

方法三:清华云盘

清华云盘
/

方法四:异型岛社区版


上面搜索下看是否有需要的模型可以下,模型目前不是太全

系列文章

第一篇-ChatGLM-webui-Windows安装部署-CPU版
第二篇-二手工作站配置
第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署实践
第四篇-Miniconda3-CentOS7-安装
第五篇-ChatGLM2-6B|ChatGLM3-6B模型下载
第六篇-ChatGLM2-6B-CentOS安装部署-GPU版

本文发布于:2024-01-29 04:55:57,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170647536012841.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:第五篇
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23