Ph

Phi-3-medium 14B-preview

基础大模型

Phi-3-medium 14B-preview

发布时间: 2024-04-23

模型参数(Parameters)
140.0
最高上下文长度(Context Length)
4K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

4K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2024-04-23

模型预文件大小

28GB

开源和体验地址

代码开源状态
预训练权重开源
MIT License - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Phi-3-medium 14B-preview模型在各大评测榜单的评分

发布机构

模型介绍

微软发布的第三代Phi模型。Phi系列是微软开发的小规模参数语言模型,在30亿及以下的参数规模中,表现亮眼。前两代模型都在30亿参数规模,第三代模型最高参数量达到140亿。


这里的Phi-3-meidum-14B是第三代Phi模型中最大的一个版本,参数规模140亿。架构与最小的Phi-3-mini-3.8B相同,tokenizer是byte-level Byte-Pair Encoding,BPE。


与Phi-3-mini相比,这个模型训练的epoch更多,训练的数据量和Phi-3-small一样,达到4.9万亿tokens。


官方的技术报告说这个模型比Phi-3-small-7B的提升不如Phi-3-small-7B相比Phi-3-mini-3.8B提升多。作者认为可能是数据问题,所以后面他们还会改进,因此,把这个Phi-3-medium-14B称为preview版本。


Phi-3三个版本模型对比总结如下表:

模型版本Phi3-miniPhi3-smallPhi3-medium
参数规模38亿70亿140亿
上下文长度4K8K4K
词汇表数量32K100K32K
tokenizerBPEtiktokenBPE
训练数据量3.8万亿4.8万亿4.8万亿

注意,这里的BPE全称就是byte-level Byte-Pair Encoding。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat