Ph

Phi-1.5

基础大模型

Phi-1.5

发布时间: 2023-09-11

模型参数(Parameters)
13.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-09-11

模型预文件大小

2.84GB

开源和体验地址

代码开源状态
预训练权重开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Phi-1.5模型在各大评测榜单的评分

发布机构

模型介绍

Phi-1.5是微软的编程大模型Phi-1的迭代版本。在Phi-1模型中,微软证明了使用教科书般高质量的数据集可以让小规模参数的语言模型拥有很高的编程水平。因此,微软继续尝试。


在Phi-1模型的基础上,微软继续加入新的NLP合成文本数据集来提升模型的语言理解能力,最终得到了Phi-1.5模型。


Phi-1.5与Phi-1一样,只有13亿的参数,但是在多个评测上的效果都远超同类规模的模型。而代码能力降低不高。


而这个参数规模是可以在手机上运行的。


微软还训练了另一个模型phi-1.5-web,加入了部分过滤后的网络语料。结果表明,高质量合成数据的作用远远大于网络语料。



Phi-1模型的简介: https://www.datalearner.com/ai-models/pretrained-models/Phi-1 

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat