Try llama2 in NUC (by quqi99)

阅读: 评论:0

Try llama2 in NUC (by quqi99)

Try llama2 in NUC (by quqi99)

作者:张华 发表于:2023-09-06

版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明
( )

据说现在在PC机上可以运行llama2大模型了,

Way 1

于是照着这个文档[1] 试了一下:

#/@karankakwani/build-and-run-llama2-llm-locally-a3b393c1570e
git clone .git
git clone .cpp.git
cd llama.cpp
make
#request access - /
#then run 'cd llama && ./download.sh', and select 7B-chat to download
du -h ./llama-2-7b-chat/consolidated.00.pth
cd ../llama.cpp/
python3 -m venv llama2
source llama2/bin/activate
python3 -m pip install -
mkdir -p models/7B
python3 convert.py --outfile models/7B/ggml-model-f16.bin --outtype f16 ../../llama2/llama/llama-2-7b-chat --vocab-dir ../../llama2/llama

但是在上面转换成f16模式的时候报了一个python的错误,像是这个bug ( ), 但解决不了。

Way 2

于是,接着转向使用xinference框架在本地试,成功了,就是在nuc上(i7-13700H)速度挺慢的.

python3 -m venv xinference
source xinference/bin/activate
pip install "xinference[all]"
xinference -H 192.168.99.179

Way 3

#
wget -c .sh
chmod +x Miniconda3-latest-Linux-x86_64.sh 
./Miniconda3-latest-Linux-x86_64.sh -b
export PATH="/home/hua/miniconda3/bin:"$PATH
conda
conda create -n localGPT
conda env list
conda init bash
conda activate localGPT
cd /bak/work/ai
git clone .git
cd localGPT
pip install -
cp /nas/book/计算机网络.pdf /bak/work/ai/localGPT/SOURCE_DOCUMENTS/
#need to use proxychains to :443 and :443 to download pytorch_model.bin etc
#proxychains python ingest.py
proxychains python ingest.py --device_type cpu
proxychains python run_localGPT.py

[1] /@karankakwani/build-and-run-llama2-llm-locally-a3b393c1570e

本文发布于:2024-02-01 11:09:45,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170675698736187.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:NUC
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23