大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
Qwen-72B ✅ 📑 🟢

722.9

73.6

65.19

85.94

77.37

60.19

82.48

70.43

QWenLMHeadModel

Yi-34B-Llama 📑 🟢

343.9

70.95

64.59

85.63

76.31

55.6

82.79

60.8

LlamaForCausalLM

Yi-34B-200K ✅ 📑 🟢

343.9

70.81

65.36

85.58

76.06

53.64

82.56

61.64

LlamaForCausalLM

internlm2-20b-llama 📑 🟢

198.6

70.66

64.59

83.12

67.27

54.13

84.21

70.66

LlamaForCausalLM

internlm2-20b-llama 📑 🟢

198.6

70.61

64.68

83.16

67.17

54.17

84.29

70.2

L;l;a;m;a;F;o;r;C;a;u;s;a;l;L;M

internlm2-20b 📑 🟢

200

69.75

62.97

83.21

67.58

51.27

85.56

67.93

Unknown

Qwen-72B-Llama 📑 🟢

722.9

69.53

64.85

83.27

73.66

57.6

81.53

56.25

LlamaForCausalLM

Yi-34B ✅ 📑 🟢

343.9

69.42

64.59

85.69

76.35

56.23

83.03

50.64

LlamaForCausalLM

deepseek-llm-67b-base ✅ 📑 🟢

670

69.38

65.44

87.1

71.78

51.08

84.14

56.71

LlamaForCausalLM

Mixtral-8x7B-v0.1 ✅ 📑 🟢

467

68.42

66.04

86.49

71.82

46.78

81.93

57.47

MixtralForCausalLM

falcon-180B 📑 🟢

1795.2

67.85

69.45

88.86

70.5

45.47

86.9

45.94

FalconForCausalLM

internlm2-7b-llama 📑 🟢

77.4

66.94

60.49

80.99

63.16

54.25

79.87

62.85

L;l;a;m;a;F;o;r;C;a;u;s;a;l;L;M

Chinese-Mixtral-8x7B 📑 🟢

469.1

66.69

63.57

85.98

70.95

45.86

82.08

51.71

MixtralForCausalLM

internlm2-7b 📑 🟢

70

66.68

58.02

81.24

65.24

48.73

83.82

63.0

Unknown

SOLAR-10.7B-v1.0 📑 🟢

107.3

66.04

61.95

84.6

65.48

45.04

83.66

55.5

LlamaForCausalLM

falcon-180B 📑 🟢

1795.2

65.46

69.2

88.89

69.59

45.16

86.74

33.21

FalconForCausalLM

internlm-20b-llama 📑 🟢

200

65.09

61.35

82.08

61.59

57.71

76.72

51.1

LlamaForCausalLM

KoSOLAR-10.7B-v0.3 📑 🟢

108

64.76

62.8

83.73

64.51

44.57

82.48

50.49

LlamaForCausalLM

KoSOLAR-10.7B-v0.2 📑 🟢

107

64.2

61.35

82.63

64.85

47.94

80.74

47.69

LlamaForCausalLM

tigerbot-70b-base 📑 🟢

689.5

63.71

62.46

83.61

65.49

52.76

80.19

37.76

Unknown

Qwen-14B-Llamafied 📑 🟢

140

63.09

55.2

82.31

66.11

45.6

76.56

52.77

LlamaForCausalLM

llama-65b 📑 🟢

652.9

62.79

63.48

86.09

63.93

43.43

82.56

37.23

LlamaForCausalLM

internlm2-base-20b-llama 📑 🟢

198.6

62.69

63.05

82.11

63.97

43.97

78.22

44.81

LlamaForCausalLM

internlm2-base-20b-llama 📑 🟢

198.6

62.69

62.97

82.15

63.78

44.11

78.22

44.88

LlamaForCausalLM

DeciLM-7B ✅ 📑 🟢

70.4

61.55

59.39

82.51

59.76

40.33

79.95

47.38

DeciLMForCausalLM

phi-2 ✅ 📑 🟢

27.8

61.33

61.09

75.11

58.11

44.47

74.35

54.81

PhiForCausalLM

Mistral-7B-v0.1 ✅ 📑 🟢

72.4

60.97

59.98

83.31

64.16

42.15

78.37

37.83

MistralForCausalLM

Mistral-7B-v0.1 ✅ 📑 🟢

72.4

60.97

59.98

83.31

64.16

42.15

78.37

37.83

MistralForCausalLM

mistral-sft-v3 📑 🟢

72.4

60.93

61.35

82.23

63.4

48.49

77.66

32.45

MistralForCausalLM

Nanbeige-16B-Base-Llama 📑 🟢

158.3

60.7

56.48

78.97

63.34

42.6

75.77

47.01

LlamaForCausalLM

CodeLlama-70b-Instruct-hf 📑 🟢

689.8

59.98

55.03

77.24

56.4

50.44

74.51

46.25

LlamaForCausalLM

internlm-20b ✅ 📑 🟢

200

59.55

60.49

82.13

61.85

52.61

76.72

23.5

InternLMForCausalLM

Qwen-7B ✅ 📑 🟢

77.2

59.19

51.37

78.47

59.84

47.79

72.69

44.96

QWenLMHeadModel

CodeLlama-70b-hf ✅ 📑 🟢

689.8

58.93

56.74

78.21

59.67

39.79

75.22

43.97

LlamaForCausalLM

CodeLlama-70b-hf ✅ 📑 🟢

689.8

58.93

56.74

78.21

59.67

39.79

75.22

43.97

LlamaForCausalLM

CodeLlama-70b-hf ✅ 📑 🟢

689.8

58.93

56.74

78.21

59.67

39.79

75.22

43.97

LlamaForCausalLM

chinese-mixtral 📑 🟢

467

58.57

67.49

85.25

70.31

46.75

81.61

0.0

MixtralForCausalLM

falcon-40b ✅ 📑 🟢

400

58.07

61.86

85.28

56.89

41.65

81.29

21.46

FalconForCausalLM

typhoon-7b 📑 🟢

70

58.05

58.53

81.55

59.54

40.52

76.56

31.61

MistralForCausalLM

CodeLlama-70b-Python-hf 📑 🟢

689.8

58.0

55.12

78.48

56.17

41.78

73.01

43.44

LlamaForCausalLM

CantoneseLLM-6B-preview202402 📑 🟢

60.6

56.93

55.63

75.8

63.07

42.26

74.11

30.71

LlamaForCausalLM

Yi-6B-200K ✅ 📑 🟢

60.6

56.76

53.75

75.57

64.65

41.56

73.64

31.39

LlamaForCausalLM

Yi-6B-200K ✅ 📑 🟢

60.6

56.69

53.58

75.58

64.65

41.74

74.27

30.33

LlamaForCausalLM

CodeLlama-34b-hf 📑 🟢

337.4

55.28

54.18

75.82

54.92

39.11

73.32

34.34

LlamaForCausalLM

Aquila2-34B ✅ 📑 🟢

340

54.5

52.65

81.99

76.02

40.8

75.06

0.45

LlamaForCausalLM

Yi-6B ✅ 📑 🟢

60.6

54.08

55.55

76.57

64.11

41.96

74.19

12.13

LlamaForCausalLM

Yi-6B ✅ 📑 🟢

60.6

54.02

55.55

76.42

63.85

41.86

73.8

12.66

LlamaForCausalLM

internlm2-base-7b-llama 📑 🟢

77.4

53.62

54.35

79.47

54.05

43.23

71.43

19.18

LlamaForCausalLM

tigerbot-13b-base 📑 🟢

130

53.42

53.84

77.05

53.57

44.06

74.98

17.06

Unknown

shisa-base-7b-v1 📑 🟢

79.6

51.64

52.3

77.63

23.12

42.4

78.53

35.86

MistralForCausalLM

llama-13b 📑 🟢

130.2

51.33

56.14

80.92

47.61

39.48

76.24

7.58

LlamaForCausalLM

FuseLLM-7B 📑 🟢

70

51.07

53.24

78.72

47.93

38.17

74.03

14.33

LlamaForCausalLM

deepseek-moe-16b-base ✅ 📑 🟢

163.8

51.07

53.24

79.77

46.31

36.08

73.72

17.29

Unknown

Llama-2-7B-GPTQ 📑 🟢

90.5

48.48

52.05

77.59

43.99

39.32

72.93

5.0

LlamaForCausalLM

yayi2-30b-llama 📑 🟢

304

48.46

35.67

53.37

70.6

49.08

63.14

18.88

LlamaForCausalLM

openllama-7b-icl 📑 🟢

70

47.93

47.95

77.04

44.37

37.06

70.17

10.99

LlamaForCausalLM

phi-1_5 ✅ 📑 🟢

0

47.69

52.9

63.79

43.89

40.89

72.22

12.43

PhiForCausalLM

phi-1_5 ✅ 📑 🟢

0

47.69

52.9

63.79

43.89

40.89

72.22

12.43

PhiForCausalLM

open_llama_13b ✅ 📑 🟢

130

47.26

51.19

75.23

43.75

38.08

72.06

3.26

LlamaForCausalLM

openllama-7b-base 📑 🟢

70

47.09

46.16

76.4

42.82

36.65

70.88

9.63

LlamaForCausalLM

stablelm-3b-4e1t 📑 🟢

28

46.58

46.59

75.94

45.23

37.2

71.19

3.34

StableLMEpochForCausalLM

stablelm-base-alpha-7b-v2 📑 🟢

68.9

46.18

47.35

77.08

45.1

36.46

68.51

2.58

StableLMAlphaForCausalLM

bloom ✅ 📑 🟢

1762.5

46.07

50.43

76.41

30.85

39.76

72.06

6.9

BloomForCausalLM

llama-base-7b 📑 🟢

66.1

45.62

50.94

77.8

35.67

34.34

71.43

3.56

Unknown

stablelm-2-1_6b ✅ 📑 🟢

16.4

45.25

43.34

70.45

38.95

36.78

64.56

17.44

Unknown

Qwen-1_8B-Llamafied 📑 🟢

18.4

44.75

37.71

58.87

46.37

39.41

61.72

24.41

LlamaForCausalLM

ThetaWave-14B-v0.1 📑 🟢

142.2

44.54

42.83

47.09

61.45

50.41

65.43

0.0

MistralForCausalLM

open_llama_7b_v2 📑 🟢

70

44.26

43.69

72.2

41.29

35.54

69.38

3.49

LlamaForCausalLM

falcon-7b ✅ 📑 🟢

70

44.17

47.87

78.13

27.79

34.26

72.38

4.62

FalconForCausalLM

gpt-sw3-40b 📑 🟢

399.3

43.42

43.0

72.37

34.97

37.52

67.96

4.7

GPT2LMHeadModel

CodeLlama-13b-hf 📑 🟢

130.2

43.35

40.87

63.35

32.81

43.79

67.17

12.13

LlamaForCausalLM

quan-1.8b-base 📑 🟢

18

43.35

36.95

58.46

45.44

41.6

57.93

19.71

LlamaForCausalLM

opt-66b 📑 🟢

660

42.78

46.33

76.25

26.99

35.43

70.01

1.67

OPTForCausalLM

codegen-16B-nl 📑 🟢

160

42.59

46.76

71.87

32.35

33.95

67.96

2.65

CodeGenForCausalLM

open_llama_7b 📑 🟢

70

42.31

47.01

71.98

30.49

34.85

67.96

1.59

LlamaForCausalLM

palmyra-large 📑 🟢

0

42.09

44.97

71.85

28.54

35.93

67.88

3.41

GPT2LMHeadModel

opt-30b 📑 🟢

300

42.0

43.26

74.07

26.66

35.16

70.64

2.2

OPTForCausalLM

gpt-neox-20b ✅ 📑 🟢

207.4

41.69

45.73

73.45

25.0

31.61

68.9

5.46

GPTNeoXForCausalLM

RedPajama-INCITE-7B-Base 📑 🟢

70

41.49

46.25

71.63

27.68

33.03

67.32

3.03

GPTNeoXForCausalLM

MiniMA-3B 📑 🟢

30.2

41.44

43.43

68.06

28.69

39.76

65.98

2.73

LlamaForCausalLM

nucleus-22B-token-500B 📑 🟢

218.3

41.33

40.7

69.39

30.11

39.16

67.64

0.99

LlamaForCausalLM

RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 🟢

66.5

41.25

46.25

71.63

27.68

33.03

67.32

1.59

Unknown

Amber 📑 🟢

0

40.97

40.96

73.79

26.84

33.56

67.88

2.81

LlamaForCausalLM

gpt-sw3-20b 📑 🟢

209.2

40.71

41.81

68.75

28.47

37.1

67.17

0.99

GPT2LMHeadModel

ThetaWave-28B-v0.1 📑 🟢

281.8

40.4

36.6

35.54

54.5

49.86

65.9

0.0

MistralForCausalLM

open_llama_3b_v2 📑 🟢

30

40.28

40.27

71.6

27.12

34.78

67.01

0.91

LlamaForCausalLM

gpt-j-6b ✅ 📑 🟢

60

40.1

41.38

67.54

26.78

35.96

65.98

2.96

GPTJForCausalLM

opt-13b 📑 🟢

130

40.06

39.93

71.2

24.9

34.1

68.51

1.74

OPTForCausalLM

codegen-6B-nl 📑 🟢

60

40.0

42.32

68.59

25.93

34.47

66.46

2.2

CodeGenForCausalLM

CodeLlama-7b-hf 📑 🟢

67.4

39.81

39.93

60.8

31.12

37.82

64.01

5.16

LlamaForCausalLM

pythia-12b-deduped 📑 🟢

120

39.7

41.38

70.26

25.63

33.0

66.46

1.44

GPTNeoXForCausalLM

gpt-sw3-6.7b-v2 📑 🟢

71.1

39.49

39.42

66.39

30.09

35.6

64.25

1.21

GPT2LMHeadModel

pythia-6.9b-deduped 📑 🟢

69

39.3

41.3

67.05

26.48

35.19

64.09

1.67

GPTNeoXForCausalLM

bloom-7b1 📑 🟢

70.7

39.18

41.13

62.0

26.25

38.9

65.43

1.36

BloomForCausalLM

h2o-danube-1.8b-base 📑 🟢

18.3

39.12

39.42

69.58

25.94

33.86

64.48

1.44

MistralForCausalLM

opt-6.7b 📑 🟢

67

39.08

39.16

68.66

24.57

35.12

65.98

0.99

OPTForCausalLM

pythia-12b ✅ 📑 🟢

120

38.82

39.59

68.82

26.76

31.85

64.17

1.74

GPTNeoXForCausalLM

weblab-10b 📑 🟢

100

38.59

39.51

65.76

26.29

36.02

62.51

1.44

GPTNeoXForCausalLM

RedPajama-INCITE-Base-3B-v1 📑 🟢

30

38.54

40.19

64.77

27.03

33.23

64.72

1.29

GPTNeoXForCausalLM

open_llama_3b 📑 🟢

30

38.26

39.85

62.65

26.94

34.97

64.72

0.45

LlamaForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: Qwen-72B ✅ 📑 🟢
参数大小:

722.9

平均分:

73.6

模型名称: Yi-34B-Llama 📑 🟢
参数大小:

343.9

平均分:

70.95

模型名称: Yi-34B-200K ✅ 📑 🟢
参数大小:

343.9

平均分:

70.81

模型名称: internlm2-20b-llama 📑 🟢
参数大小:

198.6

平均分:

70.66

模型名称: internlm2-20b-llama 📑 🟢
参数大小:

198.6

平均分:

70.61

模型名称: internlm2-20b 📑 🟢
参数大小:

200

平均分:

69.75

模型名称: Qwen-72B-Llama 📑 🟢
参数大小:

722.9

平均分:

69.53

模型名称: Yi-34B ✅ 📑 🟢
参数大小:

343.9

平均分:

69.42

模型名称: deepseek-llm-67b-base ✅ 📑 🟢
参数大小:

670

平均分:

69.38

模型名称: Mixtral-8x7B-v0.1 ✅ 📑 🟢
参数大小:

467

平均分:

68.42

模型名称: falcon-180B 📑 🟢
参数大小:

1795.2

平均分:

67.85

模型名称: internlm2-7b-llama 📑 🟢
参数大小:

77.4

平均分:

66.94

模型名称: Chinese-Mixtral-8x7B 📑 🟢
参数大小:

469.1

平均分:

66.69

模型名称: internlm2-7b 📑 🟢
参数大小:

70

平均分:

66.68

模型名称: SOLAR-10.7B-v1.0 📑 🟢
参数大小:

107.3

平均分:

66.04

模型名称: falcon-180B 📑 🟢
参数大小:

1795.2

平均分:

65.46

模型名称: internlm-20b-llama 📑 🟢
参数大小:

200

平均分:

65.09

模型名称: KoSOLAR-10.7B-v0.3 📑 🟢
参数大小:

108

平均分:

64.76

模型名称: KoSOLAR-10.7B-v0.2 📑 🟢
参数大小:

107

平均分:

64.2

模型名称: tigerbot-70b-base 📑 🟢
参数大小:

689.5

平均分:

63.71

模型名称: Qwen-14B-Llamafied 📑 🟢
参数大小:

140

平均分:

63.09

模型名称: llama-65b 📑 🟢
参数大小:

652.9

平均分:

62.79

模型名称: internlm2-base-20b-llama 📑 🟢
参数大小:

198.6

平均分:

62.69

模型名称: internlm2-base-20b-llama 📑 🟢
参数大小:

198.6

平均分:

62.69

模型名称: DeciLM-7B ✅ 📑 🟢
参数大小:

70.4

平均分:

61.55

模型名称: phi-2 ✅ 📑 🟢
参数大小:

27.8

平均分:

61.33

模型名称: Mistral-7B-v0.1 ✅ 📑 🟢
参数大小:

72.4

平均分:

60.97

模型名称: Mistral-7B-v0.1 ✅ 📑 🟢
参数大小:

72.4

平均分:

60.97

模型名称: mistral-sft-v3 📑 🟢
参数大小:

72.4

平均分:

60.93

模型名称: Nanbeige-16B-Base-Llama 📑 🟢
参数大小:

158.3

平均分:

60.7

模型名称: CodeLlama-70b-Instruct-hf 📑 🟢
参数大小:

689.8

平均分:

59.98

模型名称: internlm-20b ✅ 📑 🟢
参数大小:

200

平均分:

59.55

模型名称: Qwen-7B ✅ 📑 🟢
参数大小:

77.2

平均分:

59.19

模型名称: CodeLlama-70b-hf ✅ 📑 🟢
参数大小:

689.8

平均分:

58.93

模型名称: CodeLlama-70b-hf ✅ 📑 🟢
参数大小:

689.8

平均分:

58.93

模型名称: CodeLlama-70b-hf ✅ 📑 🟢
参数大小:

689.8

平均分:

58.93

模型名称: chinese-mixtral 📑 🟢
参数大小:

467

平均分:

58.57

模型名称: falcon-40b ✅ 📑 🟢
参数大小:

400

平均分:

58.07

模型名称: typhoon-7b 📑 🟢
参数大小:

70

平均分:

58.05

模型名称: CodeLlama-70b-Python-hf 📑 🟢
参数大小:

689.8

平均分:

58.0

模型名称: CantoneseLLM-6B-preview202402 📑 🟢
参数大小:

60.6

平均分:

56.93

模型名称: Yi-6B-200K ✅ 📑 🟢
参数大小:

60.6

平均分:

56.76

模型名称: Yi-6B-200K ✅ 📑 🟢
参数大小:

60.6

平均分:

56.69

模型名称: CodeLlama-34b-hf 📑 🟢
参数大小:

337.4

平均分:

55.28

模型名称: Aquila2-34B ✅ 📑 🟢
参数大小:

340

平均分:

54.5

模型名称: Yi-6B ✅ 📑 🟢
参数大小:

60.6

平均分:

54.08

模型名称: Yi-6B ✅ 📑 🟢
参数大小:

60.6

平均分:

54.02

模型名称: internlm2-base-7b-llama 📑 🟢
参数大小:

77.4

平均分:

53.62

模型名称: tigerbot-13b-base 📑 🟢
参数大小:

130

平均分:

53.42

模型名称: shisa-base-7b-v1 📑 🟢
参数大小:

79.6

平均分:

51.64

模型名称: llama-13b 📑 🟢
参数大小:

130.2

平均分:

51.33

模型名称: FuseLLM-7B 📑 🟢
参数大小:

70

平均分:

51.07

模型名称: deepseek-moe-16b-base ✅ 📑 🟢
参数大小:

163.8

平均分:

51.07

模型名称: Llama-2-7B-GPTQ 📑 🟢
参数大小:

90.5

平均分:

48.48

模型名称: yayi2-30b-llama 📑 🟢
参数大小:

304

平均分:

48.46

模型名称: openllama-7b-icl 📑 🟢
参数大小:

70

平均分:

47.93

模型名称: phi-1_5 ✅ 📑 🟢
参数大小:

0

平均分:

47.69

模型名称: phi-1_5 ✅ 📑 🟢
参数大小:

0

平均分:

47.69

模型名称: open_llama_13b ✅ 📑 🟢
参数大小:

130

平均分:

47.26

模型名称: openllama-7b-base 📑 🟢
参数大小:

70

平均分:

47.09

模型名称: stablelm-3b-4e1t 📑 🟢
参数大小:

28

平均分:

46.58

模型名称: stablelm-base-alpha-7b-v2 📑 🟢
参数大小:

68.9

平均分:

46.18

模型名称: bloom ✅ 📑 🟢
参数大小:

1762.5

平均分:

46.07

模型名称: llama-base-7b 📑 🟢
参数大小:

66.1

平均分:

45.62

模型名称: stablelm-2-1_6b ✅ 📑 🟢
参数大小:

16.4

平均分:

45.25

模型名称: Qwen-1_8B-Llamafied 📑 🟢
参数大小:

18.4

平均分:

44.75

模型名称: ThetaWave-14B-v0.1 📑 🟢
参数大小:

142.2

平均分:

44.54

模型名称: open_llama_7b_v2 📑 🟢
参数大小:

70

平均分:

44.26

模型名称: falcon-7b ✅ 📑 🟢
参数大小:

70

平均分:

44.17

模型名称: gpt-sw3-40b 📑 🟢
参数大小:

399.3

平均分:

43.42

模型名称: CodeLlama-13b-hf 📑 🟢
参数大小:

130.2

平均分:

43.35

模型名称: quan-1.8b-base 📑 🟢
参数大小:

18

平均分:

43.35

模型名称: opt-66b 📑 🟢
参数大小:

660

平均分:

42.78

模型名称: codegen-16B-nl 📑 🟢
参数大小:

160

平均分:

42.59

模型名称: open_llama_7b 📑 🟢
参数大小:

70

平均分:

42.31

模型名称: palmyra-large 📑 🟢
参数大小:

0

平均分:

42.09

模型名称: opt-30b 📑 🟢
参数大小:

300

平均分:

42.0

模型名称: gpt-neox-20b ✅ 📑 🟢
参数大小:

207.4

平均分:

41.69

模型名称: RedPajama-INCITE-7B-Base 📑 🟢
参数大小:

70

平均分:

41.49

模型名称: MiniMA-3B 📑 🟢
参数大小:

30.2

平均分:

41.44

模型名称: nucleus-22B-token-500B 📑 🟢
参数大小:

218.3

平均分:

41.33

模型名称: RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 🟢
参数大小:

66.5

平均分:

41.25

模型名称: Amber 📑 🟢
参数大小:

0

平均分:

40.97

模型名称: gpt-sw3-20b 📑 🟢
参数大小:

209.2

平均分:

40.71

模型名称: ThetaWave-28B-v0.1 📑 🟢
参数大小:

281.8

平均分:

40.4

模型名称: open_llama_3b_v2 📑 🟢
参数大小:

30

平均分:

40.28

模型名称: gpt-j-6b ✅ 📑 🟢
参数大小:

60

平均分:

40.1

模型名称: opt-13b 📑 🟢
参数大小:

130

平均分:

40.06

模型名称: codegen-6B-nl 📑 🟢
参数大小:

60

平均分:

40.0

模型名称: CodeLlama-7b-hf 📑 🟢
参数大小:

67.4

平均分:

39.81

模型名称: pythia-12b-deduped 📑 🟢
参数大小:

120

平均分:

39.7

模型名称: gpt-sw3-6.7b-v2 📑 🟢
参数大小:

71.1

平均分:

39.49

模型名称: pythia-6.9b-deduped 📑 🟢
参数大小:

69

平均分:

39.3

模型名称: bloom-7b1 📑 🟢
参数大小:

70.7

平均分:

39.18

模型名称: h2o-danube-1.8b-base 📑 🟢
参数大小:

18.3

平均分:

39.12

模型名称: opt-6.7b 📑 🟢
参数大小:

67

平均分:

39.08

模型名称: pythia-12b ✅ 📑 🟢
参数大小:

120

平均分:

38.82

模型名称: weblab-10b 📑 🟢
参数大小:

100

平均分:

38.59

模型名称: RedPajama-INCITE-Base-3B-v1 📑 🟢
参数大小:

30

平均分:

38.54

模型名称: open_llama_3b 📑 🟢
参数大小:

30

平均分:

38.26