【通义千问】大模型Qwen GitHub开源工程学习笔记(3)

阅读: 评论:0

【通义千问】大模型Qwen GitHub开源工程学习笔记(3)

【通义千问】大模型Qwen GitHub开源工程学习笔记(3)

 摘要:

本笔记分析了使用预训练的模型生成文本的示例代码。它的步骤如下:

  1. 使用已加载的分词器 tokenizer 对输入文本进行处理,转换为模型可以理解的格式。输入文本是国家和首都的信息,最后一句是未完成的,需要模型来生成。
  2. 将处理后的输入转移到模型所在的设备上(例如GPU或CPU)。
  3. 使用模型的 generate 方法对输入进行处理,生成预测的输出。
  4. 使用分词器的 decode 方法将生成的输出从模型理解的格式转换回文本,并打印出来。

实例分析

from transformers import AutoModelForCausalLM, AutoTokenizer
ation import GenerationConfig# 可选的模型包括: "Qwen/Qwen-7B", "Qwen/Qwen-14B"
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)# 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存
# model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B", device_map="auto", trust_remote_code=True, bf16=True).eval()
# 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存
# model = AutoModelForCausalLM.from_pretrained("Qwen/Q

本文发布于:2024-01-28 11:14:02,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17064116467023.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23