模型详细情况和参数
这是北京智源人工智能研究院开源的最新的700亿参数规模的大语言模型,是悟道·天鹰系列参数规模最大的模型。Aquila2-70B-Expr模型的Expr代表的是Experimental,表明这是一个实验性质的模型。而根据官方的介绍,这个模型的实验的主要是验证异构芯片上模型训练的性能和效果。
Aquila2-70B-Expr模型在1.2万亿tokens数据集上预训练得到,该模型在不同任务的评测结果如下:
评测基准 | Aquila2-70B-Expr | Llama2-70B | Aquila2-34B v1.2 |
---|---|---|---|
C-Eval (test) | 66.8 | — | 59.3 |
CLUE | 74.79 | 67.92 | 79.2 |
Gaokao2023 v2.0 | 58.06 | 44.86 | 53.92 |
C-SEM v1.0 | 76.14 | 67.2 | 85.15 |
MMLU | 61.92 | 69.54 | 73.74 |
可以看到,这个模型本身的评测结果一般,甚至不如Aquila2-34B v1.2版本,原因官方解释是训练数据较少。而且它的预训练数据集中,英文数据量只有Llama2-70B的三分之一左右。但是,官方在实验中:
对Aquila2-70B-Expr进行以MMLU训练集进行增广的数据进行了一小段持续训练,Aquila2-70B-Expr能迅速在MMLU的总体评测上提升至80.7分
官方认为这意味着作为基座模型,Aquila2-70B-Expr模型非常优秀,可以在后续的使用中提供一个泛化能力强、学习能力强的基座模型。所以,直接在当前状态进行了开源。
另外,官方重点提到,这个模型是做异构训练实验验证的产物。在使用A100+A800异构英伟达GPU芯片集群、天数智能的天数BI-V100+BI-V150的异构集群上都做了训练对比,结果证明异构芯片的训练结果与纯粹的A100上或者是纯粹的天数BI-V100上训练效果差不多。
这也是这个模型生产过程中的一个重要共享,在异构硬件上训练的问题需要解决:
BAAI此次开源的Aquila2-70B-Expr其实就是FlagScale框架的新特性测试结果。