模型详细情况和参数
这是微软发布的一个小规模参数的大语言模型,目的是证明使用高质量数据集和合适的模型架构,可以让小规模参数的模型也有涌现的能力。
Phi-1是一个参数仅有13亿的大语言模型,目标是代码生成。从网络上用了60亿tokens的教科书般质量的数据集以及GPT-3.5合成的10亿tokens数据集进行训练。最终,这个模型在代码生成能力上表现非凡,它的python代码生成评测结果与CodeLLaMA-34B差不多,十分让人惊叹。
不过,Phi-1是一个不能商用模型。它的编程评测结果参考我们DataLearnerAI的大模型编程排行: https://www.datalearner.com/ai-models/llm-coding-evaluation