🌟会员专属,加入会员后,所有内容免费下载,可永久使用!🎉 在个人中心每日签到可白嫖会员!🎁 成为合伙人,免费获取永久会员!
2G显存可用,阿里Qwen-1.8B整合包
- 2023-12-24更新,增加CPU运行支持
- 自动选择CPU还是GPU运行
- CPU运行基础内存占用1.3GB,在i5-12600K CPU上4线程可以达到14-15token/s
通义千问-1.8B(Qwen-1.8B)是阿里云研发的通义千问大模型系列的18亿参数规模的模型。Qwen-1.8B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。

通义千问-1.8B(Qwen-1.8B)主要有以下特点:
-
低成本部署:提供int8和int4量化版本,推理最低仅需不到2GB显存,生成2048 tokens仅需3GB显存占用。微调最低仅需6GB。 -
大规模高质量训练语料:使用超过2.2万亿tokens的数据进行预训练,包含高质量中、英、多语言、代码、数学等数据,涵盖通用及专业领域的训练语料。通过大量对比实验对预训练语料分布进行了优化。 -
优秀的性能:Qwen-1.8B支持8192上下文长度,在多个中英文下游评测任务上(涵盖常识推理、代码、数学、翻译等),效果显著超越现有的相近规模开源模型,具体评测结果请详见下文。 -
覆盖更全面的词表:相比目前以中英词表为主的开源模型,Qwen-1.8B使用了约15万大小的词表。该词表对多语言更加友好,方便用户在不扩展词表的情况下对部分语种进行能力增强和扩展。
学术Fun将上述工具制作成一键启动包,点击即可使用,避免大家配置Python环境出现各种问题,下载地址: https://xueshu.fun/3410/,在此页面右侧区域点击下载!
注意电脑配置如下
:
-
windows 10/11 -
2G显存以上英伟达显卡
下载使用教程
-
下载压缩包
下载地址: https://xueshu.fun/3410/,在此页面右侧区域点击下载!
-
解压,最好不要有中文路径,解压后,如下图所示,双击
启动.exe
文件运行

-
浏览器访问http://127.0.0.1:7860/,即可在浏览器使用
Qwen-1.8B除了显存需求低之外,还支持“系统指令跟随” 功能。通过调整系统指令,可以实现角色扮演,语言风格迁移,任务设定,和行为设定等能力,如下图所示可以让它扮演一个Python专家。

声明:本站所有软件、课程、素材等资源全部来源于互联网,赞助VIP仅用于对本站服务器带宽及网站运营等费用支出做支持,从本站下载资源,说明你已同意本条款。如若本站内容侵犯了原著者的合法权益,请携带版权证明与我们联系,我们会及时处理。