INT8 GPT-J 6B
INT8 GPT-J 6B 是由 BigScience 发布的 AI 模型,发布时间为 2023-03-16,定位为 基础大模型,参数规模约为 60.0B,上下文长度为 2K,模型文件大小约 6。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
INT8 GPT-J 6B是GPT-J 6B的INT8量化版本,由Intel提供。
这个int8 ONNX模型是通过神经压缩器生成的,可以使用以下命令导出fp32模型:
python -m transformers.onnx --model=EleutherAI/gpt-j-6B onnx_gptj/ --framework pt --opset 13 --feature=causal-lm-with-past
测试结果如下:
| INT8量化 | FP32版本 | |
|---|---|---|
| Lamabda数据集准确率 | 0.7926 | 0.7954 |
| 模型大小(GB) | 6 | 23 |
可以看到,这个压缩版本使得模型从原来的23G压缩到了6G,但是准确率几乎没有下降,十分值得大家自己使用!
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
