大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
speechless-coder-ds-1.3b 📑 🔶

13

31.4

26.54

39.49

24.85

42.12

53.04

2.35

LlamaForCausalLM

Aira-2-774M 📑 💬

7.7

31.33

28.75

40.8

25.1

41.33

52.01

0.0

GPT2LMHeadModel

gpt-2-xl-EvolInstruct 📑 🔶

16.1

31.32

27.39

38.46

25.67

42.76

53.51

0.15

GPT2LMHeadModel

Cerebras-GPT-1.3B 📑 🟢

13

31.3

26.28

38.54

26.59

42.7

53.43

0.23

?

pythia-410m-deduped 📑 🟢

5.1

31.29

24.83

41.29

25.99

40.95

54.38

0.3

GPTNeoXForCausalLM

dlite-v2-355m 📑 🔶

3.6

31.2

28.33

40.54

26.77

38.76

52.8

0.0

GPT2LMHeadModel

pygmalion-1.3b 📑 🔶

15.2

31.14

28.07

46.96

24.12

37.64

50.04

0.0

GPTNeoXForCausalLM

Aira-2-355M 📑 💬

3.6

31.0

27.56

38.92

27.26

38.53

53.75

0.0

GPT2LMHeadModel

GPTNeo350M-Instruct-SFT 📑 💬

4.6

31.0

25.94

38.55

25.76

45.25

50.2

0.3

GPTNeoForCausalLM

kaori-34b-v4 📑 🔶

343.9

30.97

23.89

28.97

25.59

49.46

57.22

0.68

LlamaForCausalLM

Kaori-34b-v2 📑 🔶

343.9

30.97

23.89

28.97

25.59

49.46

57.22

0.68

LlamaForCausalLM

emailgen-pythia-410m-deduped 📑 🔶

5.1

30.93

27.9

40.04

27.35

38.2

52.09

0.0

GPTNeoXForCausalLM

gpt-sw3-356m-instruct 📑 💬

4.7

30.93

26.96

38.01

25.53

40.74

52.57

1.74

GPT2LMHeadModel

Quokka_1.3b 📑 🔶

14.2

30.86

27.73

37.91

26.66

40.14

52.72

0.0

GPT2LMHeadModel

1.3b 📑

14.2

30.76

27.3

38.3

26.77

39.02

53.04

0.15

GPT2LMHeadModel

bloomz-560m-sft-chat 📑 🔶

5.6

30.72

27.47

37.05

23.93

42.35

53.51

0.0

BloomForCausalLM

dolphinette 📑 🔶

5.6

30.65

24.91

37.33

25.37

42.08

54.22

0.0

Unknown

bloomz-560m 📑

5.6

30.63

23.55

36.31

25.1

45.69

53.12

0.0

BloomForCausalLM

medalpaca-13B-GPTQ-4bit 📑

162.2

30.62

29.35

26.32

25.44

49.51

53.12

0.0

Unknown

dlite-v1-355m 📑 🔶

3.6

30.54

27.13

39.07

27.12

37.13

52.8

0.0

GPT2LMHeadModel

mistral-inst-v02-dpo 📑 🔶

72.4

30.43

27.9

26.08

27.02

50.8

50.75

0.0

MistralForCausalLM

gpt-sw3-356m 📑 🟢

4.7

30.41

23.63

37.05

25.93

42.55

53.04

0.23

GPT2LMHeadModel

megatron-gpt2-345m 📑 🟢

3.8

30.4

24.23

39.18

24.32

41.51

52.96

0.23

GPT2LMHeadModel

speechless-codellama-orca-airoboros-13b-0.10e 📑 💬

130.2

30.36

29.44

25.71

25.43

49.64

51.93

0.0

LlamaForCausalLM

Llama-160M-Chat-v1 📑 🔶

1.6

30.27

24.74

35.29

26.13

44.16

51.3

0.0

LlamaForCausalLM

Llama-2-13b-sf 📑 🔶

128.5

30.22

29.52

26.49

25.98

48.97

50.36

0.0

Unknown

speechless-codellama-orca-airoboros-13b-0.10e 📑 🔶

130.2

30.22

29.27

25.74

25.69

49.61

50.99

0.0

LlamaForCausalLM

fbopt-350m-8bit 📑 🟢

3.3

30.21

23.55

36.6

26.22

40.97

52.64

1.29

OPTForCausalLM

flyingllama-v2 📑 💬

4.6

30.19

24.74

38.44

26.37

41.3

50.28

0.0

LlamaForCausalLM

RWKV-4-PilePlus-430M-20230520-6162-1018Gtokens-ctx4098 📑 🔶

3.8

30.18

26.02

40.39

24.45

37.57

52.41

0.23

Unknown

LiteLlama-460M-1T 📑 🟢

4.6

30.16

24.83

38.39

25.96

41.59

50.2

0.0

LlamaForCausalLM

flyingllama 📑 🔶

4.6

30.16

24.74

38.35

26.14

41.6

50.12

0.0

LlamaForCausalLM

Orca-2-7b-f16 📑 🟢

70

30.15

29.61

25.62

26.7

48.36

50.59

0.0

LlamaForCausalLM

OPT-350M-Erebus 📑 🔶

3.3

30.14

23.81

34.35

26.23

43.58

52.57

0.3

OPTForCausalLM

bloom-1b1-RLHF 📑 💬

0.2

30.14

27.99

26.19

26.86

48.88

50.91

0.0

Unknown

bloom-560m 📑

5.6

30.13

24.74

37.15

24.22

42.44

51.93

0.3

BloomForCausalLM

Llama-2-13b 📑 🔶

128.5

30.11

29.35

26.35

24.94

48.32

51.7

0.0

Unknown

opt350m_10e5 📑 🔶

3.3

30.09

24.15

36.53

26.0

42.17

51.7

0.0

OPTForCausalLM

test5 📑 🔶

128.5

30.06

28.41

26.63

25.36

47.34

52.64

0.0

Unknown

lamini-cerebras-1.3b 📑 🔶

13.2

30.05

26.88

37.96

28.43

36.45

50.59

0.0

Unknown

megatron-GPT-2-345m-EvolInstruct 📑 🔶

3.8

30.01

24.06

35.12

24.48

41.25

54.78

0.38

GPT2LMHeadModel

opt-350m 📑 🟢

3.5

30.01

23.55

36.73

26.02

40.83

52.64

0.3

OPTForCausalLM

mistral7b_sft_dpo 📑 🔶

72.4

30.0

27.56

25.53

24.05

49.68

53.2

0.0

MistralForCausalLM

phi2 📑 🔶

13.1

29.98

22.87

30.7

27.55

46.1

52.01

0.68

Unknown

speechless-codellama-orca-platypus-13b-0.10e 📑 🔶

130.2

29.96

28.92

25.76

25.28

49.22

50.59

0.0

LlamaForCausalLM

Ziya-LLaMA-13B-Pretrain-v1 ✅ 📑 🔶

130

29.96

27.99

26.0

27.04

48.59

50.12

0.0

LlamaForCausalLM

moe-x33 📑 🔶

589.4

29.95

26.19

26.44

24.93

51.14

50.99

0.0

MixtralForCausalLM

proofGPT-v0.1 📑 🔶

0

29.94

22.87

28.66

25.96

51.64

50.43

0.08

GPTNeoXForCausalLM

mistral-environment-adapter 📑 🔶

72.4

29.93

29.18

25.81

25.38

48.75

50.43

0.0

MistralForCausalLM

OPT-350M-Nerys-v2 📑 🔶

3.5

29.9

23.63

35.49

25.91

42.08

51.62

0.68

OPTForCausalLM

gpt2-medium-emailgen 📑 🔶

3.8

29.87

26.45

34.31

24.1

43.96

50.43

0.0

GPT2LMHeadModel

cutie 📑 💬

72.4

29.87

26.96

27.02

24.17

48.42

52.64

0.0

Unknown

test2 📑 🔶

128.5

29.87

29.61

26.65

24.34

48.49

50.12

0.0

Unknown

WizardLM-7B-uncensored-GPTQ 📑

90.4

29.86

28.5

25.37

24.85

50.86

49.57

0.0

LlamaForCausalLM

speechless-codellama-orca-platypus-13b-0.10e 📑 💬

130.2

29.83

28.75

25.88

25.36

49.27

49.72

0.0

LlamaForCausalLM

Ziya-LLaMA-13B-v1 ✅ 📑 🔶

130

29.82

27.73

25.96

27.04

48.65

49.57

0.0

LlamaForCausalLM

WizardLM-33B-V1.0-Uncensored-SuperHOT-8k 📑

330

29.81

25.43

31.97

23.43

47.0

51.07

0.0

LlamaForCausalLM

neuralfalcon-1b-v1 📑 🔶

10

29.8

26.37

26.56

25.93

49.03

50.75

0.15

FalconForCausalLM

FinOPT-Franklin 📑 🔶

13.2

29.78

27.73

24.91

23.12

52.4

50.51

0.0

OPTForCausalLM

mental-alpaca 📑 🔶

0

29.77

28.58

26.02

27.04

48.61

48.38

0.0

LlamaForCausalLM

clown-SUV-4x70b 📑 🤝

2380.9

29.76

24.74

28.29

24.2

48.81

52.49

0.0

MixtralForCausalLM

opt350m_10e6 📑 🔶

3.3

29.73

23.98

32.36

24.96

46.71

50.36

0.0

OPTForCausalLM

proofGPT-v0.1-6.7B 📑 🔶

67

29.72

23.29

28.45

24.57

50.87

51.14

0.0

GPTNeoXForCausalLM

Llama-68M-Chat-v1 📑 💬

0.7

29.72

23.29

28.27

25.18

47.27

54.3

0.0

LlamaForCausalLM

neuralfalcon-1b-v1 📑 🔶

10

29.72

26.79

26.56

26.22

48.93

49.57

0.23

FalconForCausalLM

gpt2-turkish-uncased 📑 🔶

1.4

29.68

24.49

25.08

26.59

52.3

49.64

0.0

Unknown

Llama-2-13b-12_153950 📑 🔶

128.5

29.68

28.58

26.58

20.79

49.03

53.12

0.0

Unknown

UltraRM-13b 📑 🔶

128.5

29.58

28.16

26.13

25.96

47.91

49.33

0.0

Unknown

gogpt-560m 📑 🔶

5.6

29.56

26.37

31.86

25.29

43.12

50.75

0.0

BloomForCausalLM

pythia-70m-deduped-cleansharegpt 📑 🔶

0.7

29.56

25.68

25.4

23.12

51.15

52.01

0.0

GPTNeoXForCausalLM

xglm-564M 📑 🟢

5.6

29.55

24.57

34.64

25.18

40.43

52.25

0.23

XGLMForCausalLM

juniper-certificate-Llama-2-7b-chat-hf 📑 🔶

70

29.55

29.1

27.63

24.02

48.23

48.3

0.0

LlamaForCausalLM

santacoder 📑 🔶

0

29.51

26.28

25.6

25.89

51.24

48.07

0.0

GPT2LMHeadCustomModel

bloom-820m-chat 📑

7.5

29.5

23.38

34.16

25.98

40.32

53.2

0.0

BloomForCausalLM

supermario-v1 📑 🔶

72.4

29.49

27.73

25.83

27.04

47.27

49.09

0.0

Unknown

mistral7b-test001 📑 🟢

75.8

29.49

24.66

26.78

23.12

50.07

52.33

0.0

Unknown

airoboros-33b-gpt4-1.2-SuperHOT-8k 📑

330

29.48

24.66

31.23

23.13

47.44

50.43

0.0

LlamaForCausalLM

test1 📑 🔶

66.1

29.48

27.65

26.17

24.55

48.33

50.2

0.0

Unknown

mistral-7b-dpo-open-orca-flan-50k-synthetic-5-models 📑 💬

72.4

29.48

25.51

25.52

26.82

48.81

50.2

0.0

MistralForCausalLM

gpt-neo-125m 📑 🟢

1.5

29.47

22.95

30.26

25.97

45.58

51.78

0.3

GPTNeoForCausalLM

KoAlpaca-Polyglot-5.8B 📑 🔶

60

29.46

27.65

35.58

24.72

39.74

49.01

0.08

GPTNeoXForCausalLM

Llama-2-13b-public 📑 🔶

128.5

29.45

29.95

26.65

22.74

49.01

48.38

0.0

Unknown

smol_llama-220M-GQA 📑 🟢

2.2

29.44

24.83

29.76

25.85

44.55

50.99

0.68

LlamaForCausalLM

lamini-neo-125m 📑 🔶

1.2

29.44

24.57

30.22

26.74

42.85

52.25

0.0

Unknown

tiny_starcoder_py 📑 🟢

1.6

29.41

20.99

28.77

26.79

47.68

51.22

0.99

GPTBigCodeForCausalLM

Cerebras-GPT-256M 📑 🟢

2.6

29.38

22.01

28.99

26.83

45.98

52.49

0.0

?

pythia-160m-deduped 📑 🟢

2.1

29.38

24.06

31.39

24.86

44.34

51.38

0.23

GPTNeoXForCausalLM

DeciCoder-1b 📑 🟢

11.1

29.37

21.16

31.09

24.34

47.05

50.83

1.74

DeciCoderForCausalLM

zephyr-smol_llama-100m-dpo-full 📑 💬

1

29.37

25.0

28.54

25.18

45.75

51.07

0.68

LlamaForCausalLM

SmolLlamix-8x101M-take2 📑 🟢

4

29.35

23.98

28.43

25.07

45.87

52.25

0.53

MixtralForCausalLM

smol_llama-220M-openhermes 📑 💬

2.2

29.34

25.17

28.98

26.17

43.08

52.01

0.61

LlamaForCausalLM

zephyr-220m-dpo-full 📑 💬

2.2

29.33

25.43

29.15

26.43

43.44

50.99

0.53

MistralForCausalLM

zephyr-220m-sft-full 📑 💬

2.2

29.33

25.26

29.03

26.45

43.23

51.62

0.38

MistralForCausalLM

Aira-2-1B1 📑 💬

11

29.32

23.21

26.97

24.86

50.63

50.28

0.0

LlamaForCausalLM

test-model 📑 🟢

0

29.31

24.4

30.17

25.88

44.59

50.83

0.0

Unknown

llama2-13b-platypus-ckpt-1000 📑 💬

128.5

29.28

28.16

26.55

23.17

48.79

49.01

0.0

Unknown

DialoGPT-large 📑 🔶

0

29.27

23.38

25.77

23.81

50.27

52.41

0.0

GPT2LMHeadModel

changpt-bart 📑 💬

1.8

29.27

28.67

26.41

23.12

47.94

49.49

0.0

Unknown

FinOPT-Lincoln 📑 🔶

3.3

29.27

26.71

25.6

23.0

50.59

49.72

0.0

OPTForCausalLM

WizardLM-13B-1.0 📑 🔶

128.5

29.27

28.5

25.97

23.12

48.61

49.41

0.0

Unknown

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: speechless-coder-ds-1.3b 📑 🔶
参数大小:

13

平均分:

31.4

模型名称: Aira-2-774M 📑 💬
参数大小:

7.7

平均分:

31.33

模型名称: gpt-2-xl-EvolInstruct 📑 🔶
参数大小:

16.1

平均分:

31.32

模型名称: Cerebras-GPT-1.3B 📑 🟢
参数大小:

13

平均分:

31.3

模型名称: pythia-410m-deduped 📑 🟢
参数大小:

5.1

平均分:

31.29

模型名称: dlite-v2-355m 📑 🔶
参数大小:

3.6

平均分:

31.2

模型名称: pygmalion-1.3b 📑 🔶
参数大小:

15.2

平均分:

31.14

模型名称: Aira-2-355M 📑 💬
参数大小:

3.6

平均分:

31.0

模型名称: GPTNeo350M-Instruct-SFT 📑 💬
参数大小:

4.6

平均分:

31.0

模型名称: kaori-34b-v4 📑 🔶
参数大小:

343.9

平均分:

30.97

模型名称: Kaori-34b-v2 📑 🔶
参数大小:

343.9

平均分:

30.97

模型名称: emailgen-pythia-410m-deduped 📑 🔶
参数大小:

5.1

平均分:

30.93

模型名称: gpt-sw3-356m-instruct 📑 💬
参数大小:

4.7

平均分:

30.93

模型名称: Quokka_1.3b 📑 🔶
参数大小:

14.2

平均分:

30.86

模型名称: 1.3b 📑
参数大小:

14.2

平均分:

30.76

模型名称: bloomz-560m-sft-chat 📑 🔶
参数大小:

5.6

平均分:

30.72

模型名称: dolphinette 📑 🔶
参数大小:

5.6

平均分:

30.65

模型名称: bloomz-560m 📑
参数大小:

5.6

平均分:

30.63

模型名称: medalpaca-13B-GPTQ-4bit 📑
参数大小:

162.2

平均分:

30.62

模型名称: dlite-v1-355m 📑 🔶
参数大小:

3.6

平均分:

30.54

模型名称: mistral-inst-v02-dpo 📑 🔶
参数大小:

72.4

平均分:

30.43

模型名称: gpt-sw3-356m 📑 🟢
参数大小:

4.7

平均分:

30.41

模型名称: megatron-gpt2-345m 📑 🟢
参数大小:

3.8

平均分:

30.4

模型名称: speechless-codellama-orca-airoboros-13b-0.10e 📑 💬
参数大小:

130.2

平均分:

30.36

模型名称: Llama-160M-Chat-v1 📑 🔶
参数大小:

1.6

平均分:

30.27

模型名称: Llama-2-13b-sf 📑 🔶
参数大小:

128.5

平均分:

30.22

模型名称: speechless-codellama-orca-airoboros-13b-0.10e 📑 🔶
参数大小:

130.2

平均分:

30.22

模型名称: fbopt-350m-8bit 📑 🟢
参数大小:

3.3

平均分:

30.21

模型名称: flyingllama-v2 📑 💬
参数大小:

4.6

平均分:

30.19

模型名称: RWKV-4-PilePlus-430M-20230520-6162-1018Gtokens-ctx4098 📑 🔶
参数大小:

3.8

平均分:

30.18

模型名称: LiteLlama-460M-1T 📑 🟢
参数大小:

4.6

平均分:

30.16

模型名称: flyingllama 📑 🔶
参数大小:

4.6

平均分:

30.16

模型名称: Orca-2-7b-f16 📑 🟢
参数大小:

70

平均分:

30.15

模型名称: OPT-350M-Erebus 📑 🔶
参数大小:

3.3

平均分:

30.14

模型名称: bloom-1b1-RLHF 📑 💬
参数大小:

0.2

平均分:

30.14

模型名称: bloom-560m 📑
参数大小:

5.6

平均分:

30.13

模型名称: Llama-2-13b 📑 🔶
参数大小:

128.5

平均分:

30.11

模型名称: opt350m_10e5 📑 🔶
参数大小:

3.3

平均分:

30.09

模型名称: test5 📑 🔶
参数大小:

128.5

平均分:

30.06

模型名称: lamini-cerebras-1.3b 📑 🔶
参数大小:

13.2

平均分:

30.05

模型名称: megatron-GPT-2-345m-EvolInstruct 📑 🔶
参数大小:

3.8

平均分:

30.01

模型名称: opt-350m 📑 🟢
参数大小:

3.5

平均分:

30.01

模型名称: mistral7b_sft_dpo 📑 🔶
参数大小:

72.4

平均分:

30.0

模型名称: phi2 📑 🔶
参数大小:

13.1

平均分:

29.98

模型名称: speechless-codellama-orca-platypus-13b-0.10e 📑 🔶
参数大小:

130.2

平均分:

29.96

模型名称: Ziya-LLaMA-13B-Pretrain-v1 ✅ 📑 🔶
参数大小:

130

平均分:

29.96

模型名称: moe-x33 📑 🔶
参数大小:

589.4

平均分:

29.95

模型名称: proofGPT-v0.1 📑 🔶
参数大小:

0

平均分:

29.94

模型名称: mistral-environment-adapter 📑 🔶
参数大小:

72.4

平均分:

29.93

模型名称: OPT-350M-Nerys-v2 📑 🔶
参数大小:

3.5

平均分:

29.9

模型名称: gpt2-medium-emailgen 📑 🔶
参数大小:

3.8

平均分:

29.87

模型名称: cutie 📑 💬
参数大小:

72.4

平均分:

29.87

模型名称: test2 📑 🔶
参数大小:

128.5

平均分:

29.87

模型名称: WizardLM-7B-uncensored-GPTQ 📑
参数大小:

90.4

平均分:

29.86

模型名称: speechless-codellama-orca-platypus-13b-0.10e 📑 💬
参数大小:

130.2

平均分:

29.83

模型名称: Ziya-LLaMA-13B-v1 ✅ 📑 🔶
参数大小:

130

平均分:

29.82

模型名称: WizardLM-33B-V1.0-Uncensored-SuperHOT-8k 📑
参数大小:

330

平均分:

29.81

模型名称: neuralfalcon-1b-v1 📑 🔶
参数大小:

10

平均分:

29.8

模型名称: FinOPT-Franklin 📑 🔶
参数大小:

13.2

平均分:

29.78

模型名称: mental-alpaca 📑 🔶
参数大小:

0

平均分:

29.77

模型名称: clown-SUV-4x70b 📑 🤝
参数大小:

2380.9

平均分:

29.76

模型名称: opt350m_10e6 📑 🔶
参数大小:

3.3

平均分:

29.73

模型名称: proofGPT-v0.1-6.7B 📑 🔶
参数大小:

67

平均分:

29.72

模型名称: Llama-68M-Chat-v1 📑 💬
参数大小:

0.7

平均分:

29.72

模型名称: neuralfalcon-1b-v1 📑 🔶
参数大小:

10

平均分:

29.72

模型名称: gpt2-turkish-uncased 📑 🔶
参数大小:

1.4

平均分:

29.68

模型名称: Llama-2-13b-12_153950 📑 🔶
参数大小:

128.5

平均分:

29.68

模型名称: UltraRM-13b 📑 🔶
参数大小:

128.5

平均分:

29.58

模型名称: gogpt-560m 📑 🔶
参数大小:

5.6

平均分:

29.56

模型名称: pythia-70m-deduped-cleansharegpt 📑 🔶
参数大小:

0.7

平均分:

29.56

模型名称: xglm-564M 📑 🟢
参数大小:

5.6

平均分:

29.55

模型名称: juniper-certificate-Llama-2-7b-chat-hf 📑 🔶
参数大小:

70

平均分:

29.55

模型名称: santacoder 📑 🔶
参数大小:

0

平均分:

29.51

模型名称: bloom-820m-chat 📑
参数大小:

7.5

平均分:

29.5

模型名称: supermario-v1 📑 🔶
参数大小:

72.4

平均分:

29.49

模型名称: mistral7b-test001 📑 🟢
参数大小:

75.8

平均分:

29.49

模型名称: airoboros-33b-gpt4-1.2-SuperHOT-8k 📑
参数大小:

330

平均分:

29.48

模型名称: test1 📑 🔶
参数大小:

66.1

平均分:

29.48

模型名称: mistral-7b-dpo-open-orca-flan-50k-synthetic-5-models 📑 💬
参数大小:

72.4

平均分:

29.48

模型名称: gpt-neo-125m 📑 🟢
参数大小:

1.5

平均分:

29.47

模型名称: KoAlpaca-Polyglot-5.8B 📑 🔶
参数大小:

60

平均分:

29.46

模型名称: Llama-2-13b-public 📑 🔶
参数大小:

128.5

平均分:

29.45

模型名称: smol_llama-220M-GQA 📑 🟢
参数大小:

2.2

平均分:

29.44

模型名称: lamini-neo-125m 📑 🔶
参数大小:

1.2

平均分:

29.44

模型名称: tiny_starcoder_py 📑 🟢
参数大小:

1.6

平均分:

29.41

模型名称: Cerebras-GPT-256M 📑 🟢
参数大小:

2.6

平均分:

29.38

模型名称: pythia-160m-deduped 📑 🟢
参数大小:

2.1

平均分:

29.38

模型名称: DeciCoder-1b 📑 🟢
参数大小:

11.1

平均分:

29.37

模型名称: zephyr-smol_llama-100m-dpo-full 📑 💬
参数大小:

1

平均分:

29.37

模型名称: SmolLlamix-8x101M-take2 📑 🟢
参数大小:

4

平均分:

29.35

模型名称: smol_llama-220M-openhermes 📑 💬
参数大小:

2.2

平均分:

29.34

模型名称: zephyr-220m-dpo-full 📑 💬
参数大小:

2.2

平均分:

29.33

模型名称: zephyr-220m-sft-full 📑 💬
参数大小:

2.2

平均分:

29.33

模型名称: Aira-2-1B1 📑 💬
参数大小:

11

平均分:

29.32

模型名称: test-model 📑 🟢
参数大小:

0

平均分:

29.31

模型名称: llama2-13b-platypus-ckpt-1000 📑 💬
参数大小:

128.5

平均分:

29.28

模型名称: DialoGPT-large 📑 🔶
参数大小:

0

平均分:

29.27

模型名称: changpt-bart 📑 💬
参数大小:

1.8

平均分:

29.27

模型名称: FinOPT-Lincoln 📑 🔶
参数大小:

3.3

平均分:

29.27

模型名称: WizardLM-13B-1.0 📑 🔶
参数大小:

128.5

平均分:

29.27