大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
Mistralic-7B-1 📑 🔶

71.1

57.4

60.84

82.29

60.8

52.38

77.03

11.07

Unknown

digital-socrates-13b 📑 🔶

130

57.34

58.36

80.14

57.01

44.47

74.59

29.49

LlamaForCausalLM

VicUnlocked-30B-LoRA-HF 📑

300

57.33

59.73

84.02

57.81

48.54

79.48

14.4

LlamaForCausalLM

airoboros-33b-gpt4 📑

330

57.32

63.74

84.87

58.54

47.06

77.03

12.66

LlamaForCausalLM

BrainDerp2 📑 🔶

130.2

57.32

60.92

81.94

58.9

57.19

75.93

9.02

LlamaForCausalLM

OpenOrca-Platypus2-13B-QLoRA-0.80-epoch 📑 💬

130.2

57.31

62.37

82.99

59.38

52.2

75.77

11.14

Unknown

LLaMA_2_13B_SFT_v0 📑 🔶

130

57.31

62.03

83.8

58.39

49.92

77.27

12.43

LlamaForCausalLM

CodeLlama-34b-Instruct-hf 📑 🔶

337.4

57.29

54.27

76.92

55.54

44.44

74.59

37.98

LlamaForCausalLM

OpenOrca-Platypus2-13B 📑 🔶

130

57.28

62.8

83.15

59.39

53.08

76.24

9.02

LlamaForCausalLM

2x-LoRA-Assemble-Nova-13B 📑 💬

130.2

57.26

62.63

83.24

58.64

51.88

76.95

10.24

Unknown

MLewd-ReMM-L2-Chat-20B-Inverted 📑 🔶

199.9

57.25

61.69

85.32

58.0

53.77

75.61

9.1

LlamaForCausalLM

Giraffe-13b-32k-v3 📑 💬

130.2

57.24

59.04

79.59

55.01

46.68

76.95

26.16

LlamaForCausalLM

orca_mini_v3_13b 📑 🔶

128.5

57.24

63.14

82.35

56.52

51.81

76.48

13.12

Unknown

orca_mini_v3_13b 📑 💬

130

57.24

63.14

82.35

56.52

51.81

76.48

13.12

LlamaForCausalLM

MLewd-Chat-v2-13B 📑 🔶

130

57.23

61.86

83.81

57.0

54.51

75.77

10.46

LlamaForCausalLM

Athena-v4 📑 🔶

130.2

57.23

62.54

84.19

57.33

50.87

76.48

11.98

LlamaForCausalLM

airoboros-33b-2.1 📑 💬

330

57.16

63.65

84.97

57.37

52.17

78.22

6.6

LlamaForCausalLM

airoboros-33b-gpt4-m2.0 📑 🔶

330

57.16

64.68

84.95

57.77

47.44

77.74

10.39

LlamaForCausalLM

BrainDerp3 📑 🔶

130.2

57.13

60.92

82.1

58.91

57.18

75.61

8.04

LlamaForCausalLM

BrainDerp 📑 🔶

130.2

57.11

60.75

82.1

58.81

56.9

75.85

8.26

LlamaForCausalLM

SOLID-SFT-WoDPO-MixQV2-Zephyr-7b-beta 📑 🔶

72.4

57.1

59.73

81.72

60.47

53.77

74.66

12.28

MistralForCausalLM

ReMM-v2.2-L2-13B 📑 🔶

130.2

57.1

61.26

84.16

56.22

51.35

75.61

14.03

LlamaForCausalLM

Athena-v3 📑 🔶

0

57.09

61.69

84.34

57.87

51.26

75.77

11.6

LlamaForCausalLM

vicuna-33b-coder 📑 🔶

330

57.07

60.41

83.27

57.17

51.79

76.87

12.89

LlamaForCausalLM

Emerhyst-20B 📑 🔶

199.9

57.07

61.69

84.98

56.98

54.16

76.09

8.49

LlamaForCausalLM

Llama-2-13b-orca-v1 📑 🔶

130

57.05

62.03

82.27

57.71

49.61

76.87

13.8

LlamaForCausalLM

airoboros-33b-gpt4-m2.0 📑 🔶

330

57.03

63.4

85.19

57.46

48.15

78.37

9.63

LlamaForCausalLM

zephyr-beta-Nebula-v2-7B 📑 🔶

72.4

57.03

56.57

82.53

56.4

58.68

70.48

17.51

MistralForCausalLM

airoboros-33b-gpt4-2.0 📑 🔶

330

57.02

63.91

85.67

57.95

45.54

77.98

11.07

LlamaForCausalLM

wendigo-14b-alpha2 📑 🔶

142.2

57.02

56.66

77.19

58.0

53.71

73.64

22.9

Unknown

synapsellm-7b-mistral-v0.3-preview 📑 🔶

72.4

57.01

53.84

74.86

54.81

55.03

74.59

28.96

MistralForCausalLM

wendigo-14b-alpha1 📑 🔶

142.2

57.01

56.48

77.2

57.83

53.76

73.01

23.81

Unknown

airoboros-33b-gpt4-2.0 📑 🔶

330

57.01

63.82

85.65

58.44

45.57

77.9

10.69

LlamaForCausalLM

YuLan-Chat-2-13b-fp16 📑 💬

130

57.01

59.04

80.66

56.72

52.18

79.64

13.8

LlamaForCausalLM

ReMM-v2-L2-13B 📑 🔶

130.2

56.99

61.95

84.0

56.14

50.81

75.85

13.19

LlamaForCausalLM

AISquare-Instruct-llama2-koen-13b-v0.9.24 📑 💬

131.6

56.98

55.63

81.35

51.76

53.0

76.95

23.2

LlamaForCausalLM

OpenOrca-Platypus2-13B-GPTQ 📑 🔶

162.4

56.98

62.54

82.67

58.56

51.93

76.8

9.4

LlamaForCausalLM

GenAI-Nova-13B 📑 💬

130.2

56.98

62.29

83.27

59.47

51.79

77.35

7.73

Unknown

airoboros-33b-gpt4-m2.0 📑 🔶

330

56.97

63.14

85.19

57.28

48.07

78.45

9.7

LlamaForCausalLM

llama-30b 📑

325.3

56.96

61.43

84.73

58.45

42.27

80.03

14.86

LlamaForCausalLM

llama-30B-hf-openassitant 📑 🔶

300

56.94

61.26

84.73

58.47

42.27

80.03

14.86

LlamaForCausalLM

CantoneseLLM-6B-preview202402 📑 🟢

60.6

56.93

55.63

75.8

63.07

42.26

74.11

30.71

LlamaForCausalLM

UndiMix-v4-13B 📑 🔶

130.2

56.93

61.95

83.88

56.9

48.96

76.16

13.72

LlamaForCausalLM

LosslessMegaCoder-llama2-13b-mini 📑 💬

130

56.92

60.58

81.26

57.92

48.89

76.95

15.92

LlamaForCausalLM

Llama-2-13b-orca-v1 📑 🔶

130

56.91

62.2

82.32

57.67

49.6

76.8

12.89

LlamaForCausalLM

Emerald-13B 📑 🔶

130

56.89

62.29

83.69

55.7

50.94

75.93

12.81

LlamaForCausalLM

ghost-7b-v0.9.0 📑 💬

72.4

56.89

53.07

77.93

55.09

47.79

73.72

33.74

MistralForCausalLM

ReMM-Mistral-13B 📑 🔶

128.5

56.89

62.2

83.82

55.43

53.32

74.51

12.05

Unknown

Instruct_Yi-6B_Dolly15K 📑 🔶

60.6

56.85

54.86

75.87

63.37

42.84

74.9

29.26

LlamaForCausalLM

OpenOrcaxOpenChat-Preview2-13B-GPTQ 📑 🔶

162.4

56.84

61.26

82.14

57.85

50.22

77.11

12.43

LlamaForCausalLM

Barcenas-Orca-2-7b 📑 🔶

67.4

56.81

55.2

77.08

56.02

43.72

75.53

33.28

LlamaForCausalLM

SOLID_SFT-WoDPO-WoMixQ 📑 🔶

72.4

56.8

59.64

81.69

60.1

55.25

74.66

9.48

MistralForCausalLM

TIGERScore-13B 📑 🔶

130.2

56.79

59.04

82.79

55.07

40.38

74.74

28.73

LlamaForCausalLM

Orca-2-13b-SFT_v5 📑 🔶

130.2

56.77

59.22

80.09

60.19

51.84

80.9

8.42

LlamaForCausalLM

Yi-6B-200K ✅ 📑 🟢

60.6

56.76

53.75

75.57

64.65

41.56

73.64

31.39

LlamaForCausalLM

Orca-Nova-13B 📑 💬

130.2

56.72

62.37

82.47

57.44

45.97

77.58

14.48

Unknown

ReMM-v2.1-L2-13B 📑 🔶

130.2

56.71

61.43

83.92

55.95

50.3

75.93

12.74

LlamaForCausalLM

OpenOrcaxOpenChat-Preview2-13B 📑 🔶

130

56.7

62.71

81.99

57.51

47.45

76.8

13.72

LlamaForCausalLM

Yi-6B-200K ✅ 📑 🟢

60.6

56.69

53.58

75.58

64.65

41.74

74.27

30.33

LlamaForCausalLM

test3_sft_4bit 📑 🔶

72.4

56.66

61.52

83.89

64.79

47.83

81.93

0.0

MistralForCausalLM

storytime-13b 📑 💬

130.2

56.64

62.03

83.96

57.48

52.5

75.53

8.34

LlamaForCausalLM

Amethyst-13B 📑 🔶

130

56.62

62.63

83.17

55.91

52.43

74.74

10.84

LlamaForCausalLM

Amethyst-13B-Mistral 📑 🔶

128.5

56.62

62.63

83.17

55.91

52.43

74.74

10.84

Unknown

BELLE-Llama2-13B-chat-0.4M 📑 🔶

130

56.62

60.67

82.31

55.94

50.85

75.53

14.4

LlamaForCausalLM

Clover3-17B 📑 🔶

168.4

56.61

59.9

81.18

60.47

40.72

78.61

18.8

MistralForCausalLM

chronos-33b 📑 🔶

330

56.59

62.2

83.48

55.87

46.67

78.3

13.04

LlamaForCausalLM

LlongOrca-13B-16k 📑 🔶

130

56.59

62.46

82.75

55.54

50.11

76.4

12.28

LlamaForCausalLM

llama2-13b-megacode2-oasst 📑 🔶

130

56.59

60.67

81.93

57.38

47.85

76.16

15.54

LlamaForCausalLM

Novocode7b-v2 📑 🔶

72.4

56.57

61.01

84.12

64.05

42.21

79.87

8.19

MistralForCausalLM

NyakuraV2.1-m7 📑 🔶

0

56.57

58.62

81.89

58.46

45.01

72.77

22.67

MistralForCausalLM

OpenRP-13B 📑 🔶

130

56.57

62.12

82.6

57.5

48.29

76.01

12.89

LlamaForCausalLM

MM-ReMM-L2-20B 📑 🔶

199.9

56.55

60.84

85.18

56.45

53.33

75.77

7.73

LlamaForCausalLM

BerrySauce-L2-13b 📑 🔶

130.2

56.55

62.29

83.78

57.1

48.3

76.09

11.75

LlamaForCausalLM

MLewdBoros-L2-13B 📑 🔶

130.2

56.51

62.54

83.9

56.57

48.14

76.95

10.99

LlamaForCausalLM

EnsembleV5-Nova-13B 📑 💬

130.2

56.49

62.71

82.55

56.79

49.86

76.24

10.77

Unknown

EnsembleV5-Nova-13B 📑 💬

130.2

56.49

62.71

82.55

56.79

49.86

76.24

10.77

Unknown

mythalion-13b 📑 🔶

130.2

56.48

61.26

83.81

56.53

46.56

77.43

13.27

LlamaForCausalLM

SOLAR_KO_1.3_deup 📑 💬

108.5

56.47

55.97

79.97

55.88

47.55

76.87

22.59

LlamaForCausalLM

speechless-code-mistral-7b-v2.0 📑 🔶

70

56.47

52.47

75.61

51.31

52.05

71.43

35.94

MistralForCausalLM

WizardLM-30B-Uncensored 📑 🔶

323.2

56.46

60.24

82.93

56.8

51.57

74.35

12.89

Unknown

SciPhi-Self-RAG-Mistral-7B-32k 📑 🔶

70

56.46

57.34

80.44

60.81

45.63

74.82

19.71

MistralForCausalLM

Pygmalion-2-13b-SuperCOT 📑 🔶

130.2

56.46

63.23

83.68

54.9

53.14

77.51

6.29

LlamaForCausalLM

Stheno-Inverted-L2-13B 📑 🔶

130

56.44

59.3

82.9

56.45

52.04

74.74

13.19

LlamaForCausalLM

Nova-13B 📑 💬

130.2

56.44

62.71

82.57

57.98

51.34

77.27

6.75

Unknown

Stheno-L2-13B 📑 🔶

130

56.43

61.01

83.95

56.33

50.18

75.14

11.98

LlamaForCausalLM

Mythical-Destroyer-L2-13B 📑 🔶

130.2

56.39

58.7

82.0

57.66

56.35

74.66

8.95

LlamaForCausalLM

llama2_7b_merge_orcafamily 📑 🔶

67.4

56.38

56.91

81.17

51.49

49.68

75.93

23.12

LlamaForCausalLM

Dans-AdventurousWinds-Mk2-7b 📑 🔶

72.4

56.38

58.19

83.48

61.8

43.56

76.32

14.94

MistralForCausalLM

MLewd-v2.4-13B 📑 🔶

130

56.37

61.69

83.83

55.1

53.34

74.51

9.78

LlamaForCausalLM

speechless-code-mistral-7b-v2.0 📑 🔶

70

56.37

52.3

75.61

51.28

52.05

71.35

35.63

MistralForCausalLM

airoboros-l2-13b-2.2.1 📑 💬

130

56.36

60.92

83.77

56.47

49.42

76.01

11.6

LlamaForCausalLM

openchat_v3.1 📑 🔶

0

56.36

59.81

82.8

56.76

44.45

76.24

18.12

LlamaForCausalLM

internlm2-math-20b-llama 📑 🔶

198.6

56.35

59.98

81.64

65.07

52.9

76.4

2.12

LlamaForCausalLM

LLAMA-13B-test-finetuning 📑 🔶

130.2

56.34

58.02

82.36

54.27

44.14

76.72

22.52

Unknown

MythoMix-L2-13b 📑 🔶

130

56.31

61.09

83.86

55.42

52.08

75.45

9.93

LlamaForCausalLM

mistral-7b_open_platypus 📑 💬

70

56.29

55.8

82.13

59.76

48.87

78.61

12.59

MistralForCausalLM

Uncensored-Jordan-13B 📑 🔶

130

56.27

57.42

82.7

55.75

50.51

76.16

15.09

LlamaForCausalLM

speechless-code-mistral-orca-7b-v1.0 📑 🔶

70

56.24

59.64

82.25

61.33

48.45

77.51

8.26

MistralForCausalLM

MythoLogic-L2-13b 📑 🔶

130

56.19

61.01

83.93

55.7

48.64

76.09

11.75

LlamaForCausalLM

Synatra-11B-Testbench 📑 💬

110

56.17

57.34

78.66

55.56

51.97

75.77

17.74

Unknown

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: Mistralic-7B-1 📑 🔶
参数大小:

71.1

平均分:

57.4

模型名称: digital-socrates-13b 📑 🔶
参数大小:

130

平均分:

57.34

模型名称: VicUnlocked-30B-LoRA-HF 📑
参数大小:

300

平均分:

57.33

模型名称: airoboros-33b-gpt4 📑
参数大小:

330

平均分:

57.32

模型名称: BrainDerp2 📑 🔶
参数大小:

130.2

平均分:

57.32

模型名称: OpenOrca-Platypus2-13B-QLoRA-0.80-epoch 📑 💬
参数大小:

130.2

平均分:

57.31

模型名称: LLaMA_2_13B_SFT_v0 📑 🔶
参数大小:

130

平均分:

57.31

模型名称: CodeLlama-34b-Instruct-hf 📑 🔶
参数大小:

337.4

平均分:

57.29

模型名称: OpenOrca-Platypus2-13B 📑 🔶
参数大小:

130

平均分:

57.28

模型名称: 2x-LoRA-Assemble-Nova-13B 📑 💬
参数大小:

130.2

平均分:

57.26

模型名称: MLewd-ReMM-L2-Chat-20B-Inverted 📑 🔶
参数大小:

199.9

平均分:

57.25

模型名称: Giraffe-13b-32k-v3 📑 💬
参数大小:

130.2

平均分:

57.24

模型名称: orca_mini_v3_13b 📑 🔶
参数大小:

128.5

平均分:

57.24

模型名称: orca_mini_v3_13b 📑 💬
参数大小:

130

平均分:

57.24

模型名称: MLewd-Chat-v2-13B 📑 🔶
参数大小:

130

平均分:

57.23

模型名称: Athena-v4 📑 🔶
参数大小:

130.2

平均分:

57.23

模型名称: airoboros-33b-2.1 📑 💬
参数大小:

330

平均分:

57.16

模型名称: airoboros-33b-gpt4-m2.0 📑 🔶
参数大小:

330

平均分:

57.16

模型名称: BrainDerp3 📑 🔶
参数大小:

130.2

平均分:

57.13

模型名称: BrainDerp 📑 🔶
参数大小:

130.2

平均分:

57.11

模型名称: SOLID-SFT-WoDPO-MixQV2-Zephyr-7b-beta 📑 🔶
参数大小:

72.4

平均分:

57.1

模型名称: ReMM-v2.2-L2-13B 📑 🔶
参数大小:

130.2

平均分:

57.1

模型名称: Athena-v3 📑 🔶
参数大小:

0

平均分:

57.09

模型名称: vicuna-33b-coder 📑 🔶
参数大小:

330

平均分:

57.07

模型名称: Emerhyst-20B 📑 🔶
参数大小:

199.9

平均分:

57.07

模型名称: Llama-2-13b-orca-v1 📑 🔶
参数大小:

130

平均分:

57.05

模型名称: airoboros-33b-gpt4-m2.0 📑 🔶
参数大小:

330

平均分:

57.03

模型名称: zephyr-beta-Nebula-v2-7B 📑 🔶
参数大小:

72.4

平均分:

57.03

模型名称: airoboros-33b-gpt4-2.0 📑 🔶
参数大小:

330

平均分:

57.02

模型名称: wendigo-14b-alpha2 📑 🔶
参数大小:

142.2

平均分:

57.02

模型名称: synapsellm-7b-mistral-v0.3-preview 📑 🔶
参数大小:

72.4

平均分:

57.01

模型名称: wendigo-14b-alpha1 📑 🔶
参数大小:

142.2

平均分:

57.01

模型名称: airoboros-33b-gpt4-2.0 📑 🔶
参数大小:

330

平均分:

57.01

模型名称: YuLan-Chat-2-13b-fp16 📑 💬
参数大小:

130

平均分:

57.01

模型名称: ReMM-v2-L2-13B 📑 🔶
参数大小:

130.2

平均分:

56.99

模型名称: AISquare-Instruct-llama2-koen-13b-v0.9.24 📑 💬
参数大小:

131.6

平均分:

56.98

模型名称: OpenOrca-Platypus2-13B-GPTQ 📑 🔶
参数大小:

162.4

平均分:

56.98

模型名称: GenAI-Nova-13B 📑 💬
参数大小:

130.2

平均分:

56.98

模型名称: airoboros-33b-gpt4-m2.0 📑 🔶
参数大小:

330

平均分:

56.97

模型名称: llama-30b 📑
参数大小:

325.3

平均分:

56.96

模型名称: llama-30B-hf-openassitant 📑 🔶
参数大小:

300

平均分:

56.94

模型名称: CantoneseLLM-6B-preview202402 📑 🟢
参数大小:

60.6

平均分:

56.93

模型名称: UndiMix-v4-13B 📑 🔶
参数大小:

130.2

平均分:

56.93

模型名称: LosslessMegaCoder-llama2-13b-mini 📑 💬
参数大小:

130

平均分:

56.92

模型名称: Llama-2-13b-orca-v1 📑 🔶
参数大小:

130

平均分:

56.91

模型名称: Emerald-13B 📑 🔶
参数大小:

130

平均分:

56.89

模型名称: ghost-7b-v0.9.0 📑 💬
参数大小:

72.4

平均分:

56.89

模型名称: ReMM-Mistral-13B 📑 🔶
参数大小:

128.5

平均分:

56.89

模型名称: Instruct_Yi-6B_Dolly15K 📑 🔶
参数大小:

60.6

平均分:

56.85

模型名称: OpenOrcaxOpenChat-Preview2-13B-GPTQ 📑 🔶
参数大小:

162.4

平均分:

56.84

模型名称: Barcenas-Orca-2-7b 📑 🔶
参数大小:

67.4

平均分:

56.81

模型名称: SOLID_SFT-WoDPO-WoMixQ 📑 🔶
参数大小:

72.4

平均分:

56.8

模型名称: TIGERScore-13B 📑 🔶
参数大小:

130.2

平均分:

56.79

模型名称: Orca-2-13b-SFT_v5 📑 🔶
参数大小:

130.2

平均分:

56.77

模型名称: Yi-6B-200K ✅ 📑 🟢
参数大小:

60.6

平均分:

56.76

模型名称: Orca-Nova-13B 📑 💬
参数大小:

130.2

平均分:

56.72

模型名称: ReMM-v2.1-L2-13B 📑 🔶
参数大小:

130.2

平均分:

56.71

模型名称: OpenOrcaxOpenChat-Preview2-13B 📑 🔶
参数大小:

130

平均分:

56.7

模型名称: Yi-6B-200K ✅ 📑 🟢
参数大小:

60.6

平均分:

56.69

模型名称: test3_sft_4bit 📑 🔶
参数大小:

72.4

平均分:

56.66

模型名称: storytime-13b 📑 💬
参数大小:

130.2

平均分:

56.64

模型名称: Amethyst-13B 📑 🔶
参数大小:

130

平均分:

56.62

模型名称: Amethyst-13B-Mistral 📑 🔶
参数大小:

128.5

平均分:

56.62

模型名称: BELLE-Llama2-13B-chat-0.4M 📑 🔶
参数大小:

130

平均分:

56.62

模型名称: Clover3-17B 📑 🔶
参数大小:

168.4

平均分:

56.61

模型名称: chronos-33b 📑 🔶
参数大小:

330

平均分:

56.59

模型名称: LlongOrca-13B-16k 📑 🔶
参数大小:

130

平均分:

56.59

模型名称: llama2-13b-megacode2-oasst 📑 🔶
参数大小:

130

平均分:

56.59

模型名称: Novocode7b-v2 📑 🔶
参数大小:

72.4

平均分:

56.57

模型名称: NyakuraV2.1-m7 📑 🔶
参数大小:

0

平均分:

56.57

模型名称: OpenRP-13B 📑 🔶
参数大小:

130

平均分:

56.57

模型名称: MM-ReMM-L2-20B 📑 🔶
参数大小:

199.9

平均分:

56.55

模型名称: BerrySauce-L2-13b 📑 🔶
参数大小:

130.2

平均分:

56.55

模型名称: MLewdBoros-L2-13B 📑 🔶
参数大小:

130.2

平均分:

56.51

模型名称: EnsembleV5-Nova-13B 📑 💬
参数大小:

130.2

平均分:

56.49

模型名称: EnsembleV5-Nova-13B 📑 💬
参数大小:

130.2

平均分:

56.49

模型名称: mythalion-13b 📑 🔶
参数大小:

130.2

平均分:

56.48

模型名称: SOLAR_KO_1.3_deup 📑 💬
参数大小:

108.5

平均分:

56.47

模型名称: speechless-code-mistral-7b-v2.0 📑 🔶
参数大小:

70

平均分:

56.47

模型名称: WizardLM-30B-Uncensored 📑 🔶
参数大小:

323.2

平均分:

56.46

模型名称: SciPhi-Self-RAG-Mistral-7B-32k 📑 🔶
参数大小:

70

平均分:

56.46

模型名称: Pygmalion-2-13b-SuperCOT 📑 🔶
参数大小:

130.2

平均分:

56.46

模型名称: Stheno-Inverted-L2-13B 📑 🔶
参数大小:

130

平均分:

56.44

模型名称: Nova-13B 📑 💬
参数大小:

130.2

平均分:

56.44

模型名称: Stheno-L2-13B 📑 🔶
参数大小:

130

平均分:

56.43

模型名称: Mythical-Destroyer-L2-13B 📑 🔶
参数大小:

130.2

平均分:

56.39

模型名称: llama2_7b_merge_orcafamily 📑 🔶
参数大小:

67.4

平均分:

56.38

模型名称: Dans-AdventurousWinds-Mk2-7b 📑 🔶
参数大小:

72.4

平均分:

56.38

模型名称: MLewd-v2.4-13B 📑 🔶
参数大小:

130

平均分:

56.37

模型名称: speechless-code-mistral-7b-v2.0 📑 🔶
参数大小:

70

平均分:

56.37

模型名称: airoboros-l2-13b-2.2.1 📑 💬
参数大小:

130

平均分:

56.36

模型名称: openchat_v3.1 📑 🔶
参数大小:

0

平均分:

56.36

模型名称: internlm2-math-20b-llama 📑 🔶
参数大小:

198.6

平均分:

56.35

模型名称: LLAMA-13B-test-finetuning 📑 🔶
参数大小:

130.2

平均分:

56.34

模型名称: MythoMix-L2-13b 📑 🔶
参数大小:

130

平均分:

56.31

模型名称: mistral-7b_open_platypus 📑 💬
参数大小:

70

平均分:

56.29

模型名称: Uncensored-Jordan-13B 📑 🔶
参数大小:

130

平均分:

56.27

模型名称: speechless-code-mistral-orca-7b-v1.0 📑 🔶
参数大小:

70

平均分:

56.24

模型名称: MythoLogic-L2-13b 📑 🔶
参数大小:

130

平均分:

56.19

模型名称: Synatra-11B-Testbench 📑 💬
参数大小:

110

平均分:

56.17