大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
supermario-slerp-v2 📑 🔶

72.4

71.35

69.37

86.6

64.91

62.96

80.82

63.46

Unknown

Mixtral-8x7b-DPO-v0.2 📑 💬

467

71.32

70.39

87.73

71.03

58.69

82.56

57.54

MixtralForCausalLM

ipo-test 📑 💬

0

71.29

67.92

85.99

65.05

55.87

80.9

72.02

Unknown

sheep-duck-llama-2-70b-v1.1 📑 💬

700

71.22

73.12

87.77

70.77

64.55

83.11

47.99

LlamaForCausalLM

caigun-lora-model-34B-v2 📑 🔶

343.9

71.19

65.02

85.28

75.69

58.03

83.03

60.12

LlamaForCausalLM

neural-chat-v3-3-8x7b-MoE 📑 🔶

467

71.17

66.64

85.43

62.22

63.2

79.72

69.83

MixtralForCausalLM

PlatYi-34B-Llama-Q 📑 💬

343.9

71.13

65.7

85.22

78.78

53.64

83.03

60.42

LlamaForCausalLM

FusionNet_SOLAR 📑 🔶

159.7

71.08

71.59

88.4

65.29

69.21

81.06

50.95

LlamaForCausalLM

Nous-Hermes-2-SOLAR-10.7B-x2-MoE 📑 🔶

191.9

71.08

67.15

84.83

66.52

55.85

83.11

68.99

MixtralForCausalLM

MetaMath-bagel-34b-v0.2-c1500 📑 🔶

343.9

71.06

63.91

82.43

74.51

53.7

80.98

70.81

LlamaForCausalLM

Yi-34B-200K-AEZAKMI-RAW-1701 📑 🔶

340

71.04

66.81

85.79

75.44

57.91

80.35

59.97

LlamaForCausalLM

shqiponja-15b-v1 📑 🔶

150

71.03

66.38

85.26

64.62

56.81

84.06

69.07

MixtralForCausalLM

Metabird-7B 📑 🔶

72.4

71.03

69.54

87.54

65.27

57.94

83.03

62.85

MistralForCausalLM

Yi-34B-200K-AEZAKMI-v2 📑 💬

343.9

71.0

67.92

85.61

75.22

56.74

81.61

58.91

LlamaForCausalLM

Nous-Hermes-2-SOLAR-10.7B 📑 🔶

107.3

71.0

66.72

84.89

66.3

55.82

82.79

69.45

LlamaForCausalLM

yi-34b-200k-rawrr-dpo-1 📑 💬

343.9

70.97

65.44

85.69

76.09

54.0

82.79

61.79

LlamaForCausalLM

Yi-34B-Llama 📑 🟢

343.9

70.95

64.59

85.63

76.31

55.6

82.79

60.8

LlamaForCausalLM

openbuddy-mixtral-7bx8-v18.1-32k 📑 💬

467.4

70.95

67.66

84.3

70.94

56.72

80.98

65.13

MixtralForCausalLM

Marcoroni-7B-v2 📑 🔶

70

70.92

68.26

86.27

63.39

61.96

80.11

65.5

Unknown

Draco-8x7B 📑 🔶

467

70.89

65.02

85.24

64.96

62.65

80.66

66.79

MixtralForCausalLM

flux-7b-v0.1 📑 🔶

72.4

70.85

67.06

86.18

65.4

55.05

79.01

72.4

MistralForCausalLM

MiaAffogato-Indo-Mistral-7b 📑 🔶

70

70.83

66.38

85.43

64.11

58.18

83.19

67.7

MistralForCausalLM

Yi-34B-200K ✅ 📑 🟢

343.9

70.81

65.36

85.58

76.06

53.64

82.56

61.64

LlamaForCausalLM

stealth-v1.2 📑 🔶

72.4

70.68

66.38

86.14

64.33

54.23

80.74

72.25

MistralForCausalLM

internlm2-20b-llama 📑 🟢

198.6

70.66

64.59

83.12

67.27

54.13

84.21

70.66

LlamaForCausalLM

internlm2-20b-llama 📑 🟢

198.6

70.61

64.68

83.16

67.17

54.17

84.29

70.2

L;l;a;m;a;F;o;r;C;a;u;s;a;l;L;M

strix-rufipes-70b 📑 🔶

689.8

70.61

71.33

87.86

69.13

56.72

84.77

53.83

LlamaForCausalLM

dolphin-2.2-70b 📑 💬

700

70.6

70.05

85.97

69.18

60.14

81.45

56.79

Unknown

ChatAllInOne-Yi-34B-200K-V1 📑 🔶

343.9

70.56

65.96

84.53

74.13

56.96

82.72

59.06

LlamaForCausalLM

ChatAllInOne-Yi-34B-200K-V1 📑 🔶

343.9

70.55

65.96

84.58

73.95

56.82

82.48

59.51

LlamaForCausalLM

kaori-70b-v1 📑 🔶

700

70.54

69.8

87.36

70.82

58.81

84.06

52.39

LlamaForCausalLM

Pallas-0.2 📑 💬

343.9

70.51

64.59

83.44

75.53

55.29

81.61

62.62

LlamaForCausalLM

Pallas-0.2 📑 💬

343.9

70.49

64.51

83.47

75.64

55.27

81.37

62.7

LlamaForCausalLM

Mixtral-8x7b-DPO-v0.1 📑 💬

467

70.45

70.9

87.61

70.66

57.38

82.4

53.75

MixtralForCausalLM

Konstanta-Gamma-10.9B 📑 🤝

109.5

70.44

68.26

87.38

64.5

64.18

80.98

57.32

MistralForCausalLM

Chupacabra-7B-v2.01 📑 🔶

72.4

70.43

68.86

86.12

63.9

63.5

80.51

59.67

MistralForCausalLM

Chupacabra-8x7B-MoE 📑 🔶

467

70.4

68.77

86.11

63.86

63.5

80.51

59.67

MixtralForCausalLM

Tulpar-7b-v2 📑 🔶

72.4

70.36

67.49

84.89

63.02

63.65

79.48

63.61

MistralForCausalLM

OpenAGI-7B-v0.1 📑 💬

72.4

70.34

66.72

86.13

63.53

69.55

79.48

56.63

MistralForCausalLM

ShiningValiant 📑 🔶

689.8

70.34

68.69

87.31

69.64

55.78

84.14

56.48

LlamaForCausalLM

firefly-mixtral-8x7b-v1 📑 🔶

467

70.34

68.09

85.76

71.49

55.31

82.08

59.29

Unknown

firefly-mixtral-8x7b-v0.1 📑 🔶

467

70.34

68.09

85.76

71.49

55.31

82.08

59.29

Unknown

una-neural-chat-v3-3-P1-OMA 📑 🔶

0

70.32

66.81

85.92

63.37

64.35

79.64

61.87

MistralForCausalLM

CapybaraMarcoroni-7B 📑 🔶

72.4

70.32

65.02

84.81

65.2

57.07

81.14

68.69

MistralForCausalLM

SauerkrautLM-7b-LaserChat 📑 💬

72.4

70.32

67.58

83.58

64.93

56.08

80.9

68.84

MistralForCausalLM

Tess-34B-v1.5b 📑 🔶

340

70.31

63.91

84.43

76.26

53.12

81.29

62.85

LlamaForCausalLM

flux-7b-v0.2 📑 🔶

72.4

70.3

66.55

86.12

65.38

51.8

79.32

72.63

MistralForCausalLM

caigun-lora-model-34B-v3 📑 🔶

343.9

70.27

66.89

84.77

75.41

56.47

83.58

54.51

LlamaForCausalLM

SynthIA-70B-v1.5 📑 🔶

700

70.23

69.37

86.97

69.16

57.4

83.66

54.81

LlamaForCausalLM

Pallas-0.5-LASER-0.1 📑 🔶

0

70.23

64.68

83.49

74.94

56.78

81.29

60.2

LlamaForCausalLM

Pallas-0.5 📑 💬

343.9

70.22

64.76

83.46

75.01

56.88

81.29

59.89

LlamaForCausalLM

MetaMath-Chupacabra-7B-v2.01-Slerp 📑 🔶

72.4

70.21

66.13

85.46

63.92

56.15

79.48

70.13

Unknown

MetaMath-Tulpar-7b-v2-Slerp 📑 🔶

72.4

70.2

65.61

85.16

63.49

56.5

79.48

70.96

Unknown

OpenHermes-2.5-neural-chat-v3-2-Slerp 📑 🔶

72.4

70.2

67.49

85.42

64.13

61.05

80.03

63.08

Unknown

chinese-mixtral-instruct 📑 🔶

467

70.19

67.75

85.67

71.53

57.46

83.11

55.65

MixtralForCausalLM

Yi-34B-200K-AEZAKMI-RAW-2301 📑 💬

343.9

70.12

66.04

84.7

74.89

56.89

81.14

57.09

LlamaForCausalLM

MetaMath-OpenHermes-2.5-neural-chat-v3-3-Slerp 📑 🔶

72.4

70.11

64.59

85.39

64.27

55.14

79.64

71.65

Unknown

Tess-34B-v1.4 📑 🔶

343.9

70.11

64.59

83.37

75.02

56.79

81.22

59.67

LlamaForCausalLM

Pallas-0.4 📑 💬

343.9

70.08

63.65

83.3

74.93

57.26

80.43

60.88

LlamaForCausalLM

Pallas-0.3 📑 💬

343.9

70.06

63.74

83.3

75.08

57.31

80.66

60.27

LlamaForCausalLM

FashionGPT-70B-V1.1 📑 🔶

700

70.05

71.76

88.2

70.99

65.26

82.64

41.47

LlamaForCausalLM

Pallas-0.4 📑 💬

343.9

70.04

63.65

83.3

75.11

57.29

80.58

60.27

LlamaForCausalLM

OpenMia-Indo-Engineering 📑 🔶

72.4

70.03

67.15

85.01

62.86

57.94

82.32

64.9

MistralForCausalLM

Pallas-0.5-LASER-0.2 📑 🔶

343.9

70.01

64.68

83.49

74.84

56.76

81.37

58.91

LlamaForCausalLM

RolePlayLake-7B-Toxic 📑 🔶

70

70.0

66.98

84.86

63.79

56.54

82.24

65.58

MistralForCausalLM

Solstice-11B-v1 📑 🔶

110

69.97

70.56

87.39

65.98

61.98

83.11

50.8

LlamaForCausalLM

openchat-nectar-0.1 📑 🔶

72.4

69.94

66.21

82.99

65.17

54.22

81.37

69.67

MistralForCausalLM

Pallas-0.3 📑 💬

343.9

69.88

63.57

83.36

75.09

57.32

80.19

59.74

LlamaForCausalLM

PlatYi-34B-Q 📑 💬

343.9

69.86

66.89

85.14

77.66

53.03

82.48

53.98

LlamaForCausalLM

neural-chat-7b-v3-3 📑 🔶

70

69.83

66.89

85.26

63.07

63.01

79.64

61.11

MistralForCausalLM

Chupacabra-7B-v2.02 📑 🔶

72.4

69.82

67.66

83.9

61.98

64.06

79.4

61.94

MistralForCausalLM

SOLAR-10.7B-Instruct-DPO-v1.0 📑 🔶

7

69.81

73.12

89.77

64.21

73.27

81.93

36.54

Unknown

Tess-M-v1.1 📑 🔶

343.9

69.79

67.15

84.76

74.5

54.8

82.87

54.66

LlamaForCausalLM

internlm2-20b 📑 🟢

200

69.75

62.97

83.21

67.58

51.27

85.56

67.93

Unknown

airoboros-l2-70b-3.1.2 📑 🔶

689.8

69.74

70.14

86.88

69.72

59.19

83.11

49.43

LlamaForCausalLM

Tess-M-v1.3 📑 🔶

0

69.71

62.54

83.95

75.36

56.03

81.14

59.21

LlamaForCausalLM

bagel-34b-v0.2 📑 🔶

343.9

69.7

68.77

83.72

76.45

59.26

83.82

46.17

LlamaForCausalLM

Rabbit-7B-DPO-Chat 📑 💬

70

69.69

70.31

87.43

60.5

62.18

79.16

58.53

MistralForCausalLM

openchat-nectar-0.5 📑 🔶

72.4

69.67

66.72

83.53

65.36

52.15

82.08

68.16

MistralForCausalLM

una-cybertron-7b-v2-bf16 📑 🔶

72.4

69.67

68.26

85.85

63.23

64.63

80.98

55.04

MistralForCausalLM

CCK_gony 📑 🔶

467

69.61

69.11

86.78

69.43

56.74

81.53

54.06

MixtralForCausalLM

Yi-34B-200K-AEZAKMI-RAW-2901 📑 💬

343.9

69.59

64.93

84.98

73.7

55.09

79.32

59.51

LlamaForCausalLM

Pandora-13B-v1 📑 🔶

124.8

69.59

67.06

87.53

63.65

65.77

80.51

52.99

MistralForCausalLM

orthorus-125b-moe 📑 🔶

1253.5

69.58

67.66

85.52

68.94

56.27

82.32

56.79

MixtralForCausalLM

DPOpenHermes-7B-v2 📑 💬

72.4

69.58

66.64

85.22

63.64

59.22

79.16

63.61

MistralForCausalLM

Qwen-72B-Llama 📑 🟢

722.9

69.53

64.85

83.27

73.66

57.6

81.53

56.25

LlamaForCausalLM

una-cybertron-7b-v1-fp16 📑 🔶

72.4

69.49

68.43

85.42

63.34

63.28

81.37

55.12

MistralForCausalLM

openchat-3.5-0106-laser 📑 🔶

72.4

69.46

66.04

83.18

65.11

52.08

81.45

68.92

MistralForCausalLM

saulgoodman-2x7b-alpha1 📑 🔶

70

69.43

66.21

85.36

64.95

60.06

79.24

60.73

MixtralForCausalLM

Yi-34B ✅ 📑 🟢

343.9

69.42

64.59

85.69

76.35

56.23

83.03

50.64

LlamaForCausalLM

yi-34b-200k-rawrr-dpo-2 📑 🔶

343.9

69.42

64.68

84.74

75.96

46.15

83.19

61.79

LlamaForCausalLM

Bald-Eagle-7B 📑 🔶

72.4

69.39

64.51

84.79

64.39

54.65

80.98

67.02

MistralForCausalLM

saulgoodman-7b-alpha1 📑 🔶

72.4

69.38

65.7

85.5

65.19

61.13

79.01

59.74

MistralForCausalLM

deepseek-llm-67b-base ✅ 📑 🟢

670

69.38

65.44

87.1

71.78

51.08

84.14

56.71

LlamaForCausalLM

Sensualize-Mixtral-bf16 📑 🔶

467

69.37

70.14

86.6

70.89

54.17

82.4

52.01

MixtralForCausalLM

Rabbit-7B-v2-DPO-Chat 📑 💬

72.4

69.36

66.13

85.18

62.92

67.06

79.24

55.65

MistralForCausalLM

openbuddy-deepseek-67b-v15-base 📑 🔶

674.2

69.34

66.3

86.03

70.97

52.31

83.58

56.86

LlamaForCausalLM

MetaModel_moe_multilingualv1 📑 💬

467

69.33

67.58

84.72

63.77

61.21

77.35

61.33

MixtralForCausalLM

openchat-3.5-0106-32k 📑 🔶

72.4

69.3

66.04

82.93

65.04

51.9

81.77

68.16

MistralForCausalLM

Platypus2-70B-instruct 📑 🔶

689.8

69.3

71.84

87.94

70.48

62.26

82.72

40.56

LlamaForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: supermario-slerp-v2 📑 🔶
参数大小:

72.4

平均分:

71.35

模型名称: Mixtral-8x7b-DPO-v0.2 📑 💬
参数大小:

467

平均分:

71.32

模型名称: ipo-test 📑 💬
参数大小:

0

平均分:

71.29

模型名称: sheep-duck-llama-2-70b-v1.1 📑 💬
参数大小:

700

平均分:

71.22

模型名称: caigun-lora-model-34B-v2 📑 🔶
参数大小:

343.9

平均分:

71.19

模型名称: neural-chat-v3-3-8x7b-MoE 📑 🔶
参数大小:

467

平均分:

71.17

模型名称: PlatYi-34B-Llama-Q 📑 💬
参数大小:

343.9

平均分:

71.13

模型名称: FusionNet_SOLAR 📑 🔶
参数大小:

159.7

平均分:

71.08

模型名称: Nous-Hermes-2-SOLAR-10.7B-x2-MoE 📑 🔶
参数大小:

191.9

平均分:

71.08

模型名称: MetaMath-bagel-34b-v0.2-c1500 📑 🔶
参数大小:

343.9

平均分:

71.06

模型名称: Yi-34B-200K-AEZAKMI-RAW-1701 📑 🔶
参数大小:

340

平均分:

71.04

模型名称: shqiponja-15b-v1 📑 🔶
参数大小:

150

平均分:

71.03

模型名称: Metabird-7B 📑 🔶
参数大小:

72.4

平均分:

71.03

模型名称: Yi-34B-200K-AEZAKMI-v2 📑 💬
参数大小:

343.9

平均分:

71.0

模型名称: Nous-Hermes-2-SOLAR-10.7B 📑 🔶
参数大小:

107.3

平均分:

71.0

模型名称: yi-34b-200k-rawrr-dpo-1 📑 💬
参数大小:

343.9

平均分:

70.97

模型名称: Yi-34B-Llama 📑 🟢
参数大小:

343.9

平均分:

70.95

模型名称: openbuddy-mixtral-7bx8-v18.1-32k 📑 💬
参数大小:

467.4

平均分:

70.95

模型名称: Marcoroni-7B-v2 📑 🔶
参数大小:

70

平均分:

70.92

模型名称: Draco-8x7B 📑 🔶
参数大小:

467

平均分:

70.89

模型名称: flux-7b-v0.1 📑 🔶
参数大小:

72.4

平均分:

70.85

模型名称: MiaAffogato-Indo-Mistral-7b 📑 🔶
参数大小:

70

平均分:

70.83

模型名称: Yi-34B-200K ✅ 📑 🟢
参数大小:

343.9

平均分:

70.81

模型名称: stealth-v1.2 📑 🔶
参数大小:

72.4

平均分:

70.68

模型名称: internlm2-20b-llama 📑 🟢
参数大小:

198.6

平均分:

70.66

模型名称: internlm2-20b-llama 📑 🟢
参数大小:

198.6

平均分:

70.61

模型名称: strix-rufipes-70b 📑 🔶
参数大小:

689.8

平均分:

70.61

模型名称: dolphin-2.2-70b 📑 💬
参数大小:

700

平均分:

70.6

模型名称: ChatAllInOne-Yi-34B-200K-V1 📑 🔶
参数大小:

343.9

平均分:

70.56

模型名称: ChatAllInOne-Yi-34B-200K-V1 📑 🔶
参数大小:

343.9

平均分:

70.55

模型名称: kaori-70b-v1 📑 🔶
参数大小:

700

平均分:

70.54

模型名称: Pallas-0.2 📑 💬
参数大小:

343.9

平均分:

70.51

模型名称: Pallas-0.2 📑 💬
参数大小:

343.9

平均分:

70.49

模型名称: Mixtral-8x7b-DPO-v0.1 📑 💬
参数大小:

467

平均分:

70.45

模型名称: Konstanta-Gamma-10.9B 📑 🤝
参数大小:

109.5

平均分:

70.44

模型名称: Chupacabra-7B-v2.01 📑 🔶
参数大小:

72.4

平均分:

70.43

模型名称: Chupacabra-8x7B-MoE 📑 🔶
参数大小:

467

平均分:

70.4

模型名称: Tulpar-7b-v2 📑 🔶
参数大小:

72.4

平均分:

70.36

模型名称: OpenAGI-7B-v0.1 📑 💬
参数大小:

72.4

平均分:

70.34

模型名称: ShiningValiant 📑 🔶
参数大小:

689.8

平均分:

70.34

模型名称: firefly-mixtral-8x7b-v1 📑 🔶
参数大小:

467

平均分:

70.34

模型名称: firefly-mixtral-8x7b-v0.1 📑 🔶
参数大小:

467

平均分:

70.34

模型名称: una-neural-chat-v3-3-P1-OMA 📑 🔶
参数大小:

0

平均分:

70.32

模型名称: CapybaraMarcoroni-7B 📑 🔶
参数大小:

72.4

平均分:

70.32

模型名称: SauerkrautLM-7b-LaserChat 📑 💬
参数大小:

72.4

平均分:

70.32

模型名称: Tess-34B-v1.5b 📑 🔶
参数大小:

340

平均分:

70.31

模型名称: flux-7b-v0.2 📑 🔶
参数大小:

72.4

平均分:

70.3

模型名称: caigun-lora-model-34B-v3 📑 🔶
参数大小:

343.9

平均分:

70.27

模型名称: SynthIA-70B-v1.5 📑 🔶
参数大小:

700

平均分:

70.23

模型名称: Pallas-0.5-LASER-0.1 📑 🔶
参数大小:

0

平均分:

70.23

模型名称: Pallas-0.5 📑 💬
参数大小:

343.9

平均分:

70.22

模型名称: MetaMath-Chupacabra-7B-v2.01-Slerp 📑 🔶
参数大小:

72.4

平均分:

70.21

模型名称: MetaMath-Tulpar-7b-v2-Slerp 📑 🔶
参数大小:

72.4

平均分:

70.2

模型名称: OpenHermes-2.5-neural-chat-v3-2-Slerp 📑 🔶
参数大小:

72.4

平均分:

70.2

模型名称: chinese-mixtral-instruct 📑 🔶
参数大小:

467

平均分:

70.19

模型名称: Yi-34B-200K-AEZAKMI-RAW-2301 📑 💬
参数大小:

343.9

平均分:

70.12

模型名称: MetaMath-OpenHermes-2.5-neural-chat-v3-3-Slerp 📑 🔶
参数大小:

72.4

平均分:

70.11

模型名称: Tess-34B-v1.4 📑 🔶
参数大小:

343.9

平均分:

70.11

模型名称: Pallas-0.4 📑 💬
参数大小:

343.9

平均分:

70.08

模型名称: Pallas-0.3 📑 💬
参数大小:

343.9

平均分:

70.06

模型名称: FashionGPT-70B-V1.1 📑 🔶
参数大小:

700

平均分:

70.05

模型名称: Pallas-0.4 📑 💬
参数大小:

343.9

平均分:

70.04

模型名称: OpenMia-Indo-Engineering 📑 🔶
参数大小:

72.4

平均分:

70.03

模型名称: Pallas-0.5-LASER-0.2 📑 🔶
参数大小:

343.9

平均分:

70.01

模型名称: RolePlayLake-7B-Toxic 📑 🔶
参数大小:

70

平均分:

70.0

模型名称: Solstice-11B-v1 📑 🔶
参数大小:

110

平均分:

69.97

模型名称: openchat-nectar-0.1 📑 🔶
参数大小:

72.4

平均分:

69.94

模型名称: Pallas-0.3 📑 💬
参数大小:

343.9

平均分:

69.88

模型名称: PlatYi-34B-Q 📑 💬
参数大小:

343.9

平均分:

69.86

模型名称: neural-chat-7b-v3-3 📑 🔶
参数大小:

70

平均分:

69.83

模型名称: Chupacabra-7B-v2.02 📑 🔶
参数大小:

72.4

平均分:

69.82

模型名称: SOLAR-10.7B-Instruct-DPO-v1.0 📑 🔶
参数大小:

7

平均分:

69.81

模型名称: Tess-M-v1.1 📑 🔶
参数大小:

343.9

平均分:

69.79

模型名称: internlm2-20b 📑 🟢
参数大小:

200

平均分:

69.75

模型名称: airoboros-l2-70b-3.1.2 📑 🔶
参数大小:

689.8

平均分:

69.74

模型名称: Tess-M-v1.3 📑 🔶
参数大小:

0

平均分:

69.71

模型名称: bagel-34b-v0.2 📑 🔶
参数大小:

343.9

平均分:

69.7

模型名称: Rabbit-7B-DPO-Chat 📑 💬
参数大小:

70

平均分:

69.69

模型名称: openchat-nectar-0.5 📑 🔶
参数大小:

72.4

平均分:

69.67

模型名称: una-cybertron-7b-v2-bf16 📑 🔶
参数大小:

72.4

平均分:

69.67

模型名称: CCK_gony 📑 🔶
参数大小:

467

平均分:

69.61

模型名称: Yi-34B-200K-AEZAKMI-RAW-2901 📑 💬
参数大小:

343.9

平均分:

69.59

模型名称: Pandora-13B-v1 📑 🔶
参数大小:

124.8

平均分:

69.59

模型名称: orthorus-125b-moe 📑 🔶
参数大小:

1253.5

平均分:

69.58

模型名称: DPOpenHermes-7B-v2 📑 💬
参数大小:

72.4

平均分:

69.58

模型名称: Qwen-72B-Llama 📑 🟢
参数大小:

722.9

平均分:

69.53

模型名称: una-cybertron-7b-v1-fp16 📑 🔶
参数大小:

72.4

平均分:

69.49

模型名称: openchat-3.5-0106-laser 📑 🔶
参数大小:

72.4

平均分:

69.46

模型名称: saulgoodman-2x7b-alpha1 📑 🔶
参数大小:

70

平均分:

69.43

模型名称: Yi-34B ✅ 📑 🟢
参数大小:

343.9

平均分:

69.42

模型名称: yi-34b-200k-rawrr-dpo-2 📑 🔶
参数大小:

343.9

平均分:

69.42

模型名称: Bald-Eagle-7B 📑 🔶
参数大小:

72.4

平均分:

69.39

模型名称: saulgoodman-7b-alpha1 📑 🔶
参数大小:

72.4

平均分:

69.38

模型名称: deepseek-llm-67b-base ✅ 📑 🟢
参数大小:

670

平均分:

69.38

模型名称: Sensualize-Mixtral-bf16 📑 🔶
参数大小:

467

平均分:

69.37

模型名称: Rabbit-7B-v2-DPO-Chat 📑 💬
参数大小:

72.4

平均分:

69.36

模型名称: openbuddy-deepseek-67b-v15-base 📑 🔶
参数大小:

674.2

平均分:

69.34

模型名称: MetaModel_moe_multilingualv1 📑 💬
参数大小:

467

平均分:

69.33

模型名称: openchat-3.5-0106-32k 📑 🔶
参数大小:

72.4

平均分:

69.3

模型名称: Platypus2-70B-instruct 📑 🔶
参数大小:

689.8

平均分:

69.3