数据学习
登录
注册
原创博客
期刊会议
学术世界
期刊出版社
领域期刊
SCI/SCIE/SSCI/EI简介
期刊列表
会议列表
所有期刊分区
学术期刊信息检索
JCR期刊分区查询
CiteScore期刊分区查询
中科院期刊分区查询
领域期刊分区
管理 - UTD24期刊列表
管理 - AJG(ABS)期刊星级查询
管理 - FMS推荐期刊列表
计算机 - CCF推荐期刊会议列表
高校期刊分区
南大核心(CSSCI)
合工大小核心
合工大大核心
AI资源仓库
AI领域与任务
AI研究机构
AI学术期刊
AI论文快讯
AI数据集
AI开源工具
AI模型
AI模型概览
预训练模型
数据推荐
网址导航
我的网址导航
程序员必备网站
清华大学开源中文版ChatGPT模型——ChatGLM-6B发布
标签:
#对话机器人#
#生成式模型#
#预训练大模型#
时间:2023/03/15 22:54:32
作者:小木
ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB显存(INT4量化级别)。 ChatGLM-6B模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/ChatGLM-6B 从目前的使用情况看,这个模型虽然不大,但也是与ChatGPT类似,做了针对对话的调优,使用体验很好。 下图是几个对话实例:


该模型的基础模型是GLM( GLM: General Language Model Pretraining with Autoregressive Blank Infilling ),是一个千亿基座模型,目前仅接受内测邀请。 根据测试,ChatGLM-6B虽然参数很少,但是效果很好。对于硬件的需求也很低。 硬件需求: | 量化等级 | 最低GPU显存 | | ------------ | ------------ | | FP16(无量化) | 13GB | | INT8 | 10GB | |INT4|6GB| ChatGLM-6B模型的具体安装使用方法以及其它信息,请参考ChatGLM-6B模型卡内容:https://www.datalearner.com/ai-models/pretrained-models/ChatGLM-6B
相关博客
最热博客