版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明
( )
据说现在在PC机上可以运行llama2大模型了,
于是照着这个文档[1] 试了一下:
#/@karankakwani/build-and-run-llama2-llm-locally-a3b393c1570e
git clone .git
git clone .cpp.git
cd llama.cpp
make
#request access - /
#then run 'cd llama && ./download.sh', and select 7B-chat to download
du -h ./llama-2-7b-chat/consolidated.00.pth
cd ../llama.cpp/
python3 -m venv llama2
source llama2/bin/activate
python3 -m pip install -
mkdir -p models/7B
python3 convert.py --outfile models/7B/ggml-model-f16.bin --outtype f16 ../../llama2/llama/llama-2-7b-chat --vocab-dir ../../llama2/llama
但是在上面转换成f16模式的时候报了一个python的错误,像是这个bug ( ), 但解决不了。
于是,接着转向使用xinference框架在本地试,成功了,就是在nuc上(i7-13700H)速度挺慢的.
python3 -m venv xinference
source xinference/bin/activate
pip install "xinference[all]"
xinference -H 192.168.99.179
#
wget -c .sh
chmod +x Miniconda3-latest-Linux-x86_64.sh
./Miniconda3-latest-Linux-x86_64.sh -b
export PATH="/home/hua/miniconda3/bin:"$PATH
conda
conda create -n localGPT
conda env list
conda init bash
conda activate localGPT
cd /bak/work/ai
git clone .git
cd localGPT
pip install -
cp /nas/book/计算机网络.pdf /bak/work/ai/localGPT/SOURCE_DOCUMENTS/
#need to use proxychains to :443 and :443 to download pytorch_model.bin etc
#proxychains python ingest.py
proxychains python ingest.py --device_type cpu
proxychains python run_localGPT.py
[1] /@karankakwani/build-and-run-llama2-llm-locally-a3b393c1570e
本文发布于:2024-02-01 11:09:45,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170675698736187.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |