大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
Samantha-1.11-7b 📑 💬

66.1

51.07

55.03

79.12

40.51

50.37

74.19

7.2

Unknown

FuseLLM-7B 📑 🟢

70

51.07

53.24

78.72

47.93

38.17

74.03

14.33

LlamaForCausalLM

deepseek-moe-16b-base ✅ 📑 🟢

163.8

51.07

53.24

79.77

46.31

36.08

73.72

17.29

Unknown

Llama2-7b-sharegpt4 📑 🔶

70

51.05

55.72

80.94

47.47

48.34

71.19

2.65

LlamaForCausalLM

phi-2-OpenHermes-2.5 📑 🔶

27.8

51.05

56.48

73.88

54.8

48.1

73.01

0.0

PhiForCausalLM

chinese-llama-2-13b 📑 🔶

129.7

51.04

55.8

79.53

53.01

38.24

75.69

3.94

Unknown

vicuna-7b-v1.3-sparsity-10 📑 🔶

67.4

51.02

51.45

76.98

47.95

46.88

69.77

13.12

LlamaForCausalLM

Llama-2-7b-chat-hf-30-sparsity 📑 💬

67.4

51.02

52.47

76.58

45.57

44.82

69.61

17.06

LlamaForCausalLM

yi6B_Vicuna 📑 🔶

60.6

51.02

46.16

69.3

58.43

48.11

65.67

18.42

LlamaForCausalLM

Mistral-Pygmalion-7b 📑 🔶

70

51.02

54.44

78.48

49.23

41.82

75.3

6.82

LlamaForCausalLM

Dorflan 📑 🔶

66.1

50.96

54.44

75.78

51.36

51.17

72.61

0.38

Unknown

llama-2-7b-instruct-peft 📑 🔶

70

50.94

51.19

78.92

46.63

48.5

74.43

5.99

Unknown

LLaMa-2-PeanutButter_v18_B-7B 📑 💬

70

50.94

54.61

81.0

47.07

41.93

74.51

6.52

Unknown

Llama-2-7b-chat-hf-afr-100step-v2 📑 💬

70

50.89

52.65

78.25

48.47

45.18

72.3

8.49

LlamaForCausalLM

Barcenas-7b 📑 🔶

70

50.87

55.12

77.4

49.27

43.64

73.64

6.14

LlamaForCausalLM

airoboros-l2-13b-2.1 📑 🔶

130

50.84

55.12

80.24

50.89

44.62

71.9

2.27

LlamaForCausalLM

Guanaco-Vicuna-7B-L2 📑 🔶

66.1

50.83

53.24

78.89

46.77

42.75

75.37

7.96

Unknown

GEITje-7B-chat-v2 📑 💬

72.4

50.79

50.34

74.13

49.0

43.55

71.51

16.22

MistralForCausalLM

firefly-llama2-13b-pretrain 📑 🔶

129.7

50.77

53.92

79.1

51.25

36.24

75.53

8.57

Unknown

LLaMa-2-PeanutButter_v10-7B 📑 💬

70

50.75

55.29

81.69

46.97

43.78

70.88

5.91

Unknown

vicuna-7b-v1.5-lora-timedial-unit-080082 📑 🔶

66.1

50.74

52.82

76.07

50.47

43.54

73.72

7.81

Unknown

starling-7B 📑 💬

70

50.73

51.02

76.77

47.75

48.18

70.56

10.08

LlamaForCausalLM

vicuna-7b-v1.5-lora-timedial-unit-080091 📑 🔶

66.1

50.71

52.82

76.1

50.58

43.4

73.72

7.66

Unknown

doctorLLM10k 📑 🔶

67.4

50.7

54.95

79.94

44.4

44.76

70.01

10.16

LlamaForCausalLM

Llama-2-7b-chat-finetune-AUTOMATE 📑 🔶

70

50.68

53.07

75.59

48.8

44.73

73.24

8.64

LlamaForCausalLM

vicuna-7b-v1.3-attention-sparsity-20 📑 💬

67.4

50.63

52.3

77.05

47.39

46.62

69.22

11.22

LlamaForCausalLM

LaOT 📑 🔶

0

50.62

55.63

78.96

50.3

44.72

74.11

0.0

Unknown

zaraxls-l2-7b 📑 🔶

70

50.61

54.44

78.94

50.39

46.51

73.16

0.23

LlamaForCausalLM

llama-2-7b-guanaco-instruct-sharded 📑 💬

67.4

50.58

53.75

78.69

46.65

43.93

72.61

7.81

LlamaForCausalLM

llama-2-7b-miniguanaco 📑 🔶

67.4

50.55

49.06

75.59

46.14

43.73

72.61

16.15

LlamaForCausalLM

vicuna-mmlu-val-mcq-7b-ep2 📑 🔶

70

50.55

53.33

77.73

46.85

43.87

71.27

10.24

LlamaForCausalLM

L2-7b-Guanaco-Uncensored 📑 🔶

66.1

50.55

50.6

76.99

48.93

43.42

75.37

7.96

Unknown

GEITje-7B 📑 🔶

72.4

50.53

44.8

75.31

50.1

40.45

72.38

20.17

MistralForCausalLM

monika-ddlc-7b-v1 📑 🔶

70

50.49

54.95

76.78

45.61

43.94

72.85

8.79

LlamaForCausalLM

WizardCoder-Python-34B-V1.0 ✅ 📑 💬

340

50.46

52.13

74.78

49.15

48.85

68.35

9.48

LlamaForCausalLM

openthaigpt-1.0.0-beta-13b-chat-hf 📑 🔶

130

50.45

53.58

79.09

51.13

44.16

73.88

0.83

LlamaForCausalLM

MistralLite-11B 📑 🔶

107.3

50.43

57.68

79.54

50.09

38.27

76.64

0.38

MistralForCausalLM

Koss-7B-chat 📑 🔶

70

50.37

53.67

78.79

46.72

43.97

71.74

7.35

LlamaForCausalLM

vicuna-7b-1.1 📑 🔶

70

50.37

53.67

77.46

45.63

48.94

70.96

5.53

LlamaForCausalLM

spatial-vicuna-7b-v1.5-LoRA 📑 🔶

70

50.36

50.77

74.63

48.13

49.36

72.38

6.9

Unknown

vicuna-7b-v1.5-lora-timedial 📑 🔶

66.1

50.35

52.9

76.29

50.47

41.6

73.56

7.28

Unknown

Fireplace-13b 📑 🔶

130.2

50.34

47.7

69.61

43.56

48.24

67.17

25.78

LlamaForCausalLM

vicuna-7b-v1.3-attention-sparsity-30 📑 💬

67.4

50.33

51.02

76.41

46.83

46.06

69.3

12.36

LlamaForCausalLM

Yi-Ko-6B 📑 🔶

61.8

50.27

48.89

74.48

55.72

37.09

72.93

12.51

LlamaForCausalLM

smol-3b 📑 🔶

30.2

50.27

46.33

68.23

46.33

50.73

65.35

24.64

Unknown

Asclepius-Llama2-13B 📑 💬

130

50.25

55.89

79.66

52.38

40.76

72.69

0.15

LlamaForCausalLM

tulu-7B-fp16 📑 🔶

70

50.24

50.17

77.04

47.63

41.61

73.8

11.22

LlamaForCausalLM

MiniChat-1.5-3B 📑 🔶

30

50.23

46.5

68.28

46.67

50.71

65.04

24.18

LlamaForCausalLM

LLongMA-2-13b-16k 📑 🔶

130

50.22

54.27

79.63

50.97

37.71

72.77

5.99

Unknown

stack-llama-2 📑 🔶

0

50.21

53.07

78.57

46.8

38.75

74.03

10.01

LlamaForCausalLM

Llama-2-7b-chat-hf-afr-200step-v2 📑 💬

70

50.21

51.79

77.41

48.55

43.69

71.9

7.88

LlamaForCausalLM

ALMA-13B 📑 🔶

130

50.16

56.83

80.29

49.92

37.57

76.32

0.0

LlamaForCausalLM

LLongMA-2-13b-16k 📑 🔶

130

50.09

54.27

79.66

50.86

37.68

72.61

5.46

Unknown

Llama-2-7B-32K-Instruct 📑 🔶

70

50.02

51.11

78.51

46.11

44.86

73.88

5.69

LlamaForCausalLM

llama-7b-SFT-qlora-eli5-wiki_DPO_ds_RM_top_2_1024_r_64_alpha_16 📑 💬

70

49.98

54.1

78.74

45.44

43.4

73.64

4.55

Unknown

Platypus2-7B 📑 💬

67.4

49.97

55.2

78.84

49.83

40.64

73.48

1.82

LlamaForCausalLM

belal-finetuned-llama2-1024-v2.2 📑 🔶

67.4

49.96

52.65

77.81

44.65

40.02

74.11

10.54

LlamaForCausalLM

mamba-gpt-7b 📑 🔶

70

49.96

51.19

75.4

47.47

42.06

71.67

11.98

LlamaForCausalLM

Uncensored-Jordan-7B 📑 🔶

70

49.95

51.28

77.37

45.69

47.5

71.11

6.75

LlamaForCausalLM

llama-2-coder-7b 📑 🔶

70

49.95

54.01

78.35

46.25

38.49

75.45

7.13

LlamaForCausalLM

tora-code-34b-v1.0 📑 🔶

340

49.92

50.26

75.48

46.65

39.62

67.72

19.79

LlamaForCausalLM

openbuddy-deepseekcoder-33b-v16.1-32k 📑 🔶

334

49.91

45.05

60.79

43.24

44.49

62.19

43.67

LlamaForCausalLM

LLaMa-2-PeanutButter_v18_A-7B 📑 💬

70

49.88

53.16

78.11

45.54

40.37

74.9

7.2

Unknown

kollama2-7b 📑 🔶

70

49.81

53.24

78.78

42.31

44.56

73.95

5.99

LlamaForCausalLM

Solar-M-SakuraSolar-Mixed 📑 🔶

89.9

49.81

45.9

58.56

64.51

59.62

70.24

0.0

LlamaForCausalLM

WizardMath-7B-V1.0 ✅ 📑 🔶

70

49.78

54.1

79.55

45.97

43.65

72.69

2.73

LlamaForCausalLM

ELYZA-japanese-Llama-2-7b-instruct 📑 💬

70

49.78

53.16

78.25

47.07

39.08

73.24

7.88

LlamaForCausalLM

llama2-to-mistral-diff 📑 🔶

0

49.78

53.41

78.56

46.43

38.71

74.03

7.51

Unknown

vicuna-7b-v1.5-lora-mixed-datasets-time-unit 📑 🔶

66.1

49.77

51.79

76.41

49.58

40.33

73.4

7.13

Unknown

LongQLoRA-Llama2-7b-8k 📑 🔶

70

49.75

52.47

78.11

45.37

38.94

72.06

11.52

LlamaForCausalLM

llama-2-7b-hf_open-platypus 📑 💬

67.4

49.73

51.45

78.63

43.6

43.71

74.43

6.6

LlamaForCausalLM

test-llama2-7b 📑 🔶

70

49.73

53.07

78.57

46.86

38.75

74.03

7.13

Unknown

Starlight-7B 📑 🔶

70

49.73

53.07

78.57

46.8

38.75

74.03

7.13

LlamaForCausalLM

ToolLLaMA-7b-LoRA 📑 🔶

70

49.72

52.99

78.62

46.87

38.67

74.35

6.82

Unknown

vicuna-class-shishya-ac-hal-13b-ep3 📑 🔶

130

49.7

48.46

80.78

56.17

39.32

73.48

0.0

LlamaForCausalLM

vicuna-7b-v1.5-lora-mixed-datasets 📑 🔶

66.1

49.7

51.71

76.44

50.13

39.57

73.24

7.13

Unknown

finetuned-llama-v2.0 📑 🔶

0

49.67

53.16

77.75

43.69

39.08

74.43

9.93

LlamaForCausalLM

llama2_7b_chat_uncensored 📑 🔶

70

49.67

53.58

78.66

44.49

41.34

74.11

5.84

LlamaForCausalLM

chinese-alpaca-plus-13b-hf 📑 🔶

130

49.66

53.16

73.51

48.81

45.32

75.06

2.12

LlamaForCausalLM

starchat-beta 📑 🔶

155.2

49.66

52.47

80.59

42.85

47.22

69.69

5.16

GPTBigCodeForCausalLM

Llama-2-7B-32K-Instruct 📑 💬

70

49.65

51.37

78.47

45.53

45.01

72.85

4.7

LlamaForCausalLM

airoboros-l2-7b-2.1 📑 🔶

70

49.64

54.44

78.68

44.45

43.95

74.11

2.2

LlamaForCausalLM

Llama-2-7b-ft-instruct-es 📑 🔶

70

49.63

53.67

77.83

46.58

38.82

75.22

5.69

LlamaForCausalLM

meditron-7b-chat 📑 🔶

67.4

49.59

50.77

75.37

40.49

48.56

73.16

9.17

LlamaForCausalLM

airoboros-l2-7b-gpt4-1.4.1 📑 🔶

70

49.54

55.12

79.6

45.17

40.29

74.27

2.81

LlamaForCausalLM

llama2-ko-7B-model 📑 🔶

66.7

49.52

56.31

79.51

45.71

40.98

72.06

2.58

Unknown

instruct-13b 📑 🔶

128.5

49.52

56.14

80.27

47.89

36.97

73.56

2.27

Unknown

QuantumLM-7B 📑

70

49.51

50.26

76.1

45.27

46.25

71.51

7.66

LlamaForCausalLM

tamil-llama-13b-base-v0.1 📑 🔶

130

49.5

52.82

79.95

52.05

36.56

75.61

0.0

LlamaForCausalLM

AceGPT-7B 📑 🔶

70

49.47

53.58

77.54

43.0

38.75

72.77

11.14

LlamaForCausalLM

Manticore-13B-Chat-Pyg-Guanaco-SuperHOT-8K-GPTQ 📑

162.2

49.47

52.82

79.63

39.83

52.55

71.82

0.15

LlamaForCausalLM

Guanaco-7B-Uncensored 📑 🔶

70

49.35

52.13

78.77

43.42

44.45

73.09

4.25

LlamaForCausalLM

FinanceConnect-13B 📑 🔶

130.2

49.34

55.12

77.73

52.08

37.68

71.82

1.59

LlamaForCausalLM

ALMA-13B-R 📑 💬

130.2

49.32

55.55

79.45

49.52

36.09

75.3

0.0

?

odia_llama2_7B_base 📑 💬

70

49.3

50.77

75.94

46.1

37.27

70.8

14.94

LlamaForCausalLM

vigogne-7b-chat 📑 🔶

70

49.27

52.47

78.35

39.51

44.52

73.16

7.58

LlamaForCausalLM

llama-v2-7b-32kC-Security 📑 💬

66.1

49.19

49.83

77.33

44.41

47.96

71.74

3.87

Unknown

ELYZA-japanese-Llama-2-7b-fast-instruct 📑 🔶

70

49.15

53.75

77.55

46.85

38.84

71.59

6.29

LlamaForCausalLM

TowerBase-7B-v0.1 📑 🔶

67.4

49.11

51.02

77.68

43.48

37.29

72.06

13.12

LlamaForCausalLM

WhiteRabbitNeo-13B-v1 📑 🔶

130

49.11

48.55

68.7

43.04

44.58

67.4

22.37

LlamaForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: Samantha-1.11-7b 📑 💬
参数大小:

66.1

平均分:

51.07

模型名称: FuseLLM-7B 📑 🟢
参数大小:

70

平均分:

51.07

模型名称: deepseek-moe-16b-base ✅ 📑 🟢
参数大小:

163.8

平均分:

51.07

模型名称: Llama2-7b-sharegpt4 📑 🔶
参数大小:

70

平均分:

51.05

模型名称: phi-2-OpenHermes-2.5 📑 🔶
参数大小:

27.8

平均分:

51.05

模型名称: chinese-llama-2-13b 📑 🔶
参数大小:

129.7

平均分:

51.04

模型名称: vicuna-7b-v1.3-sparsity-10 📑 🔶
参数大小:

67.4

平均分:

51.02

模型名称: Llama-2-7b-chat-hf-30-sparsity 📑 💬
参数大小:

67.4

平均分:

51.02

模型名称: yi6B_Vicuna 📑 🔶
参数大小:

60.6

平均分:

51.02

模型名称: Mistral-Pygmalion-7b 📑 🔶
参数大小:

70

平均分:

51.02

模型名称: Dorflan 📑 🔶
参数大小:

66.1

平均分:

50.96

模型名称: llama-2-7b-instruct-peft 📑 🔶
参数大小:

70

平均分:

50.94

模型名称: LLaMa-2-PeanutButter_v18_B-7B 📑 💬
参数大小:

70

平均分:

50.94

模型名称: Llama-2-7b-chat-hf-afr-100step-v2 📑 💬
参数大小:

70

平均分:

50.89

模型名称: Barcenas-7b 📑 🔶
参数大小:

70

平均分:

50.87

模型名称: airoboros-l2-13b-2.1 📑 🔶
参数大小:

130

平均分:

50.84

模型名称: Guanaco-Vicuna-7B-L2 📑 🔶
参数大小:

66.1

平均分:

50.83

模型名称: GEITje-7B-chat-v2 📑 💬
参数大小:

72.4

平均分:

50.79

模型名称: firefly-llama2-13b-pretrain 📑 🔶
参数大小:

129.7

平均分:

50.77

模型名称: LLaMa-2-PeanutButter_v10-7B 📑 💬
参数大小:

70

平均分:

50.75

模型名称: vicuna-7b-v1.5-lora-timedial-unit-080082 📑 🔶
参数大小:

66.1

平均分:

50.74

模型名称: starling-7B 📑 💬
参数大小:

70

平均分:

50.73

模型名称: vicuna-7b-v1.5-lora-timedial-unit-080091 📑 🔶
参数大小:

66.1

平均分:

50.71

模型名称: doctorLLM10k 📑 🔶
参数大小:

67.4

平均分:

50.7

模型名称: Llama-2-7b-chat-finetune-AUTOMATE 📑 🔶
参数大小:

70

平均分:

50.68

模型名称: vicuna-7b-v1.3-attention-sparsity-20 📑 💬
参数大小:

67.4

平均分:

50.63

模型名称: LaOT 📑 🔶
参数大小:

0

平均分:

50.62

模型名称: zaraxls-l2-7b 📑 🔶
参数大小:

70

平均分:

50.61

模型名称: llama-2-7b-guanaco-instruct-sharded 📑 💬
参数大小:

67.4

平均分:

50.58

模型名称: llama-2-7b-miniguanaco 📑 🔶
参数大小:

67.4

平均分:

50.55

模型名称: vicuna-mmlu-val-mcq-7b-ep2 📑 🔶
参数大小:

70

平均分:

50.55

模型名称: L2-7b-Guanaco-Uncensored 📑 🔶
参数大小:

66.1

平均分:

50.55

模型名称: GEITje-7B 📑 🔶
参数大小:

72.4

平均分:

50.53

模型名称: monika-ddlc-7b-v1 📑 🔶
参数大小:

70

平均分:

50.49

模型名称: WizardCoder-Python-34B-V1.0 ✅ 📑 💬
参数大小:

340

平均分:

50.46

模型名称: openthaigpt-1.0.0-beta-13b-chat-hf 📑 🔶
参数大小:

130

平均分:

50.45

模型名称: MistralLite-11B 📑 🔶
参数大小:

107.3

平均分:

50.43

模型名称: Koss-7B-chat 📑 🔶
参数大小:

70

平均分:

50.37

模型名称: vicuna-7b-1.1 📑 🔶
参数大小:

70

平均分:

50.37

模型名称: spatial-vicuna-7b-v1.5-LoRA 📑 🔶
参数大小:

70

平均分:

50.36

模型名称: vicuna-7b-v1.5-lora-timedial 📑 🔶
参数大小:

66.1

平均分:

50.35

模型名称: Fireplace-13b 📑 🔶
参数大小:

130.2

平均分:

50.34

模型名称: vicuna-7b-v1.3-attention-sparsity-30 📑 💬
参数大小:

67.4

平均分:

50.33

模型名称: Yi-Ko-6B 📑 🔶
参数大小:

61.8

平均分:

50.27

模型名称: smol-3b 📑 🔶
参数大小:

30.2

平均分:

50.27

模型名称: Asclepius-Llama2-13B 📑 💬
参数大小:

130

平均分:

50.25

模型名称: tulu-7B-fp16 📑 🔶
参数大小:

70

平均分:

50.24

模型名称: MiniChat-1.5-3B 📑 🔶
参数大小:

30

平均分:

50.23

模型名称: LLongMA-2-13b-16k 📑 🔶
参数大小:

130

平均分:

50.22

模型名称: stack-llama-2 📑 🔶
参数大小:

0

平均分:

50.21

模型名称: Llama-2-7b-chat-hf-afr-200step-v2 📑 💬
参数大小:

70

平均分:

50.21

模型名称: ALMA-13B 📑 🔶
参数大小:

130

平均分:

50.16

模型名称: LLongMA-2-13b-16k 📑 🔶
参数大小:

130

平均分:

50.09

模型名称: Llama-2-7B-32K-Instruct 📑 🔶
参数大小:

70

平均分:

50.02

模型名称: llama-7b-SFT-qlora-eli5-wiki_DPO_ds_RM_top_2_1024_r_64_alpha_16 📑 💬
参数大小:

70

平均分:

49.98

模型名称: Platypus2-7B 📑 💬
参数大小:

67.4

平均分:

49.97

模型名称: belal-finetuned-llama2-1024-v2.2 📑 🔶
参数大小:

67.4

平均分:

49.96

模型名称: mamba-gpt-7b 📑 🔶
参数大小:

70

平均分:

49.96

模型名称: Uncensored-Jordan-7B 📑 🔶
参数大小:

70

平均分:

49.95

模型名称: llama-2-coder-7b 📑 🔶
参数大小:

70

平均分:

49.95

模型名称: tora-code-34b-v1.0 📑 🔶
参数大小:

340

平均分:

49.92

模型名称: openbuddy-deepseekcoder-33b-v16.1-32k 📑 🔶
参数大小:

334

平均分:

49.91

模型名称: LLaMa-2-PeanutButter_v18_A-7B 📑 💬
参数大小:

70

平均分:

49.88

模型名称: kollama2-7b 📑 🔶
参数大小:

70

平均分:

49.81

模型名称: Solar-M-SakuraSolar-Mixed 📑 🔶
参数大小:

89.9

平均分:

49.81

模型名称: WizardMath-7B-V1.0 ✅ 📑 🔶
参数大小:

70

平均分:

49.78

模型名称: ELYZA-japanese-Llama-2-7b-instruct 📑 💬
参数大小:

70

平均分:

49.78

模型名称: llama2-to-mistral-diff 📑 🔶
参数大小:

0

平均分:

49.78

模型名称: vicuna-7b-v1.5-lora-mixed-datasets-time-unit 📑 🔶
参数大小:

66.1

平均分:

49.77

模型名称: LongQLoRA-Llama2-7b-8k 📑 🔶
参数大小:

70

平均分:

49.75

模型名称: llama-2-7b-hf_open-platypus 📑 💬
参数大小:

67.4

平均分:

49.73

模型名称: test-llama2-7b 📑 🔶
参数大小:

70

平均分:

49.73

模型名称: Starlight-7B 📑 🔶
参数大小:

70

平均分:

49.73

模型名称: ToolLLaMA-7b-LoRA 📑 🔶
参数大小:

70

平均分:

49.72

模型名称: vicuna-class-shishya-ac-hal-13b-ep3 📑 🔶
参数大小:

130

平均分:

49.7

模型名称: vicuna-7b-v1.5-lora-mixed-datasets 📑 🔶
参数大小:

66.1

平均分:

49.7

模型名称: finetuned-llama-v2.0 📑 🔶
参数大小:

0

平均分:

49.67

模型名称: llama2_7b_chat_uncensored 📑 🔶
参数大小:

70

平均分:

49.67

模型名称: chinese-alpaca-plus-13b-hf 📑 🔶
参数大小:

130

平均分:

49.66

模型名称: starchat-beta 📑 🔶
参数大小:

155.2

平均分:

49.66

模型名称: Llama-2-7B-32K-Instruct 📑 💬
参数大小:

70

平均分:

49.65

模型名称: airoboros-l2-7b-2.1 📑 🔶
参数大小:

70

平均分:

49.64

模型名称: Llama-2-7b-ft-instruct-es 📑 🔶
参数大小:

70

平均分:

49.63

模型名称: meditron-7b-chat 📑 🔶
参数大小:

67.4

平均分:

49.59

模型名称: airoboros-l2-7b-gpt4-1.4.1 📑 🔶
参数大小:

70

平均分:

49.54

模型名称: llama2-ko-7B-model 📑 🔶
参数大小:

66.7

平均分:

49.52

模型名称: instruct-13b 📑 🔶
参数大小:

128.5

平均分:

49.52

模型名称: QuantumLM-7B 📑
参数大小:

70

平均分:

49.51

模型名称: tamil-llama-13b-base-v0.1 📑 🔶
参数大小:

130

平均分:

49.5

模型名称: AceGPT-7B 📑 🔶
参数大小:

70

平均分:

49.47

模型名称: Manticore-13B-Chat-Pyg-Guanaco-SuperHOT-8K-GPTQ 📑
参数大小:

162.2

平均分:

49.47

模型名称: Guanaco-7B-Uncensored 📑 🔶
参数大小:

70

平均分:

49.35

模型名称: FinanceConnect-13B 📑 🔶
参数大小:

130.2

平均分:

49.34

模型名称: ALMA-13B-R 📑 💬
参数大小:

130.2

平均分:

49.32

模型名称: odia_llama2_7B_base 📑 💬
参数大小:

70

平均分:

49.3

模型名称: vigogne-7b-chat 📑 🔶
参数大小:

70

平均分:

49.27

模型名称: llama-v2-7b-32kC-Security 📑 💬
参数大小:

66.1

平均分:

49.19

模型名称: ELYZA-japanese-Llama-2-7b-fast-instruct 📑 🔶
参数大小:

70

平均分:

49.15

模型名称: TowerBase-7B-v0.1 📑 🔶
参数大小:

67.4

平均分:

49.11

模型名称: WhiteRabbitNeo-13B-v1 📑 🔶
参数大小:

130

平均分:

49.11