ChatGLM-6B

ChatGLM-6B

预训练模型详情

模型全称

ChatGLM-6B

模型简称

ChatGLM-6B

发布日期

2023-03-14

预训练文件大小

未知

模型参数数量(亿)

62

发布论文

GLM: General Language Model Pretraining with Autoregressive Blank Infilling

发布机构

基础模型

ChatGLM-6B 简介

ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB显存(INT4量化级别)。


该模型的基础模型是GLM( GLM: General Language Model Pretraining with Autoregressive Blank Infilling ),是一个千亿基座模型,目前仅接受内测邀请。


根据测试,ChatGLM-6B虽然参数很少,但是效果很好。对于硬件的需求也很低。

硬件需求:

量化等级最低GPU显存
FP16(无量化)13GB
INT810GB
INT46GB



目前模型开源在GitHub上: https://github.com/THUDM/ChatGLM-6B 


安装方法


从GitHub上下载整个工程,然后执行如下命令安装所需的库:


pip install -r requirements.txt


注意,该软件依赖HuggingFace的transformer,需要版本大于4.26.1(官方说实际上估计大于4.23.1版本都是可以的)


使用实例


>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:


1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。


如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。



代码实现: https://huggingface.co/THUDM/chatglm-6b 


大家也可以使用他们基于Gradio的网页版本。为了让大家使用,他们也提供了CPU推理的方式,甚至16G内存的CPU也可以用(真为大家操碎了心)


ChatGLM-6B可以实现的能力

这是一个对话机器人,所以基本的问答系统都是支持的。官方提供了几个使用实例:

  • 自我认知
  • 提纲写作
  • 文案写作
  • 邮件助手
  • 信息抽取
  • 角色扮演
  • 评论比较
  • 旅游向导

ChatGLM-6B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

ChatGLM-6B相关的任务
问答系统

问答系统

Question Answering

35个资源