大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
h2ogpt-gm-oasst1-en-1024-20b 📑 🔶

200

42.58

48.04

72.76

25.96

39.92

66.3

2.5

GPTNeoXForCausalLM

llama-2-13b-chat-hf-phr_mental_therapy 📑 🔶

130

42.5

38.82

72.76

23.12

46.92

65.59

7.81

LlamaForCausalLM

h2ogpt-oasst1-512-20b ✅ 📑 🔶

200

42.44

46.93

72.77

26.25

37.5

68.03

3.18

GPTNeoXForCausalLM

codellama_7b_DolphinCoder 📑 🔶

70

42.39

41.98

65.5

38.11

35.45

63.61

9.7

Unknown

codellama_7b_DolphinCoder 📑 🔶

70

42.39

41.98

65.5

38.11

35.45

63.61

9.7

Unknown

LL7M 📑 🔶

0.1

42.38

44.97

68.81

34.44

41.39

64.09

0.61

LlamaForCausalLM

RedPajama-INCITE-7B-Instruct 📑 🔶

70

42.38

44.11

72.02

37.62

33.96

64.96

1.59

GPTNeoXForCausalLM

RedPajama-INCITE-Instruct-7B-v0.1 📑 🔶

66.5

42.38

44.11

72.02

37.62

33.96

64.96

1.59

Unknown

open_llama_7b 📑 🟢

70

42.31

47.01

71.98

30.49

34.85

67.96

1.59

LlamaForCausalLM

bloomz-7b1-mt-sft-chat 📑 🔶

70.7

42.24

44.03

62.6

38.64

44.34

63.3

0.53

BloomForCausalLM

Galpaca-30b-MiniOrca 📑 💬

299.7

42.23

48.89

57.8

43.72

41.1

60.06

1.82

OPTForCausalLM

pythia-12b-sft-v8-7k-steps 📑 🔶

120

42.21

44.03

70.28

26.55

36.53

65.27

10.61

GPTNeoXForCausalLM

bloomz-7b1 📑

70

42.21

42.49

63.01

37.85

45.2

64.64

0.08

BloomForCausalLM

bloomz-7b1-mt 📑

70

42.14

43.86

62.91

37.35

45.65

63.06

0.0

BloomForCausalLM

Sheared-LLaMA-2.7B-ShareGPT 📑 🔶

27

42.11

41.04

71.26

28.5

47.71

64.17

0.0

LlamaForCausalLM

palmyra-large 📑 🟢

0

42.09

44.97

71.85

28.54

35.93

67.88

3.41

GPT2LMHeadModel

pygmalion-6b-vicuna-chatml 📑 🔶

60

42.08

40.61

67.73

33.92

42.76

63.06

4.4

GPTJForCausalLM

Marx-3B-V2 📑 🔶

34.3

42.08

44.03

72.92

27.84

39.92

66.54

1.21

LlamaForCausalLM

speechless-tora-code-7b-v1.0 📑 🔶

70

42.04

42.66

65.16

38.56

42.06

62.9

0.91

LlamaForCausalLM

open-llama-3b-v2-instruct 📑 💬

34.3

42.02

38.48

70.24

39.69

37.96

65.75

0.0

LlamaForCausalLM

opt-30b 📑 🟢

300

42.0

43.26

74.07

26.66

35.16

70.64

2.2

OPTForCausalLM

datascience-coder-6.7b 📑 🔶

67

41.99

34.64

53.83

37.96

44.82

55.72

24.94

LlamaForCausalLM

pythia-12b-sft-v8-2.5k-steps 📑 🔶

120

41.97

42.32

70.15

27.36

36.75

65.67

9.55

GPTNeoXForCausalLM

h2ogpt-gm-oasst1-multilang-1024-20b 📑 🔶

200

41.9

47.44

72.58

26.37

34.39

68.43

2.2

GPTNeoXForCausalLM

GPT-JT-Moderation-6B 📑

60

41.8

40.53

67.66

41.63

37.33

62.67

0.99

GPTJForCausalLM

Barcenas-3b 📑 🔶

30

41.74

43.17

67.82

29.16

41.56

66.22

2.5

LlamaForCausalLM

gpt-sw3-6.7b-v2-instruct 📑 💬

71.1

41.72

40.78

67.77

31.57

40.32

63.54

6.37

GPT2LMHeadModel

Marx-3B 📑 🔶

34.3

41.71

43.17

72.68

28.46

39.09

65.59

1.29

LlamaForCausalLM

gpt-neox-20b ✅ 📑 🟢

207.4

41.69

45.73

73.45

25.0

31.61

68.9

5.46

GPTNeoXForCausalLM

pythia-12b-sft-v8-rlhf-2k-steps 📑

120

41.65

43.43

70.08

26.12

36.06

64.64

9.55

GPTNeoXForCausalLM

shearedplats-2.7b-v2 📑 💬

27

41.61

42.41

72.58

27.52

39.76

65.9

1.52

LlamaForCausalLM

MiniMerlin-3b-v0.1 📑 💬

30.2

41.6

40.7

54.06

43.32

49.65

60.54

1.36

LlamaForCausalLM

glaive-coder-7b 📑 🔶

70

41.56

42.66

64.69

37.15

39.88

59.75

5.23

LlamaForCausalLM

RedPajama-INCITE-7B-Base 📑 🟢

70

41.49

46.25

71.63

27.68

33.03

67.32

3.03

GPTNeoXForCausalLM

gpt4all-j ✅ 📑

0

41.49

41.98

64.06

28.2

42.78

64.72

7.2

GPTJForCausalLM

gpt4all-j ✅ 📑

0

41.49

41.98

64.06

28.2

42.78

64.72

7.2

GPTJForCausalLM

open-llama-3b-v2-wizard-evol-instuct-v2-196k 📑 🔶

34.3

41.46

41.81

73.01

26.36

38.99

66.69

1.9

LlamaForCausalLM

MiniMA-3B 📑 🟢

30.2

41.44

43.43

68.06

28.69

39.76

65.98

2.73

LlamaForCausalLM

open-llama-3b-everything-v2 📑 🔶

34.3

41.41

42.83

73.28

26.87

37.26

66.61

1.59

LlamaForCausalLM

mommygpt-3B 📑 🔶

34.3

41.36

41.89

71.69

28.74

37.9

65.82

2.12

LlamaForCausalLM

orca_mini_13b 📑

128.5

41.36

42.06

63.4

35.43

43.1

64.17

0.0

Unknown

nucleus-22B-token-500B 📑 🟢

218.3

41.33

40.7

69.39

30.11

39.16

67.64

0.99

LlamaForCausalLM

llama-2-34b-uncode 📑 🔶

337.4

41.33

39.51

33.9

38.49

40.94

74.35

20.77

LlamaForCausalLM

oasst-sft-4-pythia-12b-epoch-3.5 ✅ 📑 🔶

120

41.31

45.73

68.59

26.82

37.81

65.9

3.03

GPTNeoXForCausalLM

orca_mini_7b 📑 🔶

66.1

41.27

43.94

65.22

29.97

42.03

66.06

0.38

Unknown

GPT-NeoX-20B-Erebus 📑 🔶

200

41.26

45.48

72.79

26.77

32.15

68.11

2.27

GPTNeoXForCausalLM

RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 🟢

66.5

41.25

46.25

71.63

27.68

33.03

67.32

1.59

Unknown

mamba-gpt-3b-v4 📑 🔶

34.3

41.24

42.58

71.04

30.04

37.26

65.82

0.68

LlamaForCausalLM

open-llama-3b-v2-elmv3 📑 🔶

34.3

41.14

42.06

73.28

27.61

35.54

64.96

3.41

LlamaForCausalLM

Griffin-3B 📑 🔶

34.3

41.13

41.81

72.3

26.36

38.33

67.01

0.99

LlamaForCausalLM

shearedplats-2.7b-v2-instruct-v0.1 📑 💬

27

41.13

40.19

70.08

28.12

41.23

65.04

2.12

LlamaForCausalLM

open-llama-3b-v2-elmv3 📑 🔶

34.3

41.13

42.15

73.26

27.16

35.51

64.96

3.71

LlamaForCausalLM

speechless-coder-ds-6.7b 📑 🔶

67

41.11

36.86

52.46

38.08

41.67

58.88

18.73

LlamaForCausalLM

open-llama-0.7T-7B-open-instruct-v1.1 📑 🔶

70

41.11

46.67

67.67

28.55

37.6

65.43

0.76

LlamaForCausalLM

mamba-gpt-3b-v3 📑 🔶

34.3

41.11

41.72

71.05

27.31

37.86

67.48

1.21

LlamaForCausalLM

pythia-12b-pre-v8-12.5k-steps 📑 🔶

120

41.1

41.47

68.8

26.58

36.82

65.27

7.66

GPTNeoXForCausalLM

GPT-NeoX-20B-Skein 📑 🔶

200

41.1

44.97

72.68

25.99

31.64

68.43

2.88

GPTNeoXForCausalLM

open-llama-3b-v2-wizard-evol-instuct-v2-196k 📑 🔶

34.3

41.09

41.21

72.88

25.39

38.87

66.61

1.59

LlamaForCausalLM

FLAMA-0.1-3B 📑 🔶

30

41.07

41.72

71.41

26.59

37.19

66.54

2.96

LlamaForCausalLM

OpenLlama-Platypus-3B 📑 🔶

34.3

41.05

41.21

71.67

29.86

36.45

65.98

1.14

LlamaForCausalLM

Puma-3B 📑 🔶

34.3

41.02

41.3

71.85

27.51

38.34

66.38

0.76

LlamaForCausalLM

wizard-orca-3b 📑 🔶

34.3

41.0

41.72

71.78

24.49

40.04

66.93

1.06

LlamaForCausalLM

Amber 📑 🟢

0

40.97

40.96

73.79

26.84

33.56

67.88

2.81

LlamaForCausalLM

open-llama-3b-claude-30k 📑 🔶

34.3

40.93

41.72

72.64

24.03

38.46

66.54

2.2

LlamaForCausalLM

open-llama-3b-v2-chat 📑 💬

34.3

40.93

40.61

70.3

28.73

37.84

65.51

2.58

LlamaForCausalLM

deepseek-coder-6.7b-chat-and-function-calling 📑 🔶

67.4

40.91

36.09

53.8

38.29

42.83

57.22

17.21

LlamaForCausalLM

deepseek-coder-6.7b-chat 📑 🔶

67.4

40.9

36.01

53.74

38.22

42.94

57.54

16.98

LlamaForCausalLM

deepseek-coder-6.7b-chat 📑 🔶

67.4

40.9

35.75

53.7

38.19

42.94

58.01

16.83

LlamaForCausalLM

Sheared-LLaMA-2.7B 📑 🔶

27

40.84

41.72

71.01

26.92

37.32

67.01

1.06

LlamaForCausalLM

amber_fine_tune_ori 📑 🔶

67.4

40.83

44.45

75.1

26.04

34.94

63.14

1.29

LlamaForCausalLM

GPT-R 📑 🔶

0

40.8

41.21

66.89

36.5

34.22

64.4

1.59

GPTJForCausalLM

ShortKing-3b-v0.3 📑 🔶

34.3

40.8

40.96

70.72

26.21

38.78

66.93

1.21

Unknown

oasst-sft-1-pythia-12b 📑 🔶

120

40.77

46.42

70.0

26.19

39.19

62.19

0.61

GPTNeoXForCausalLM

gogpt-7b-bloom 📑 🔶

70

40.75

44.62

62.56

33.81

40.61

62.9

0.0

BloomForCausalLM

gpt-sw3-20b 📑 🟢

209.2

40.71

41.81

68.75

28.47

37.1

67.17

0.99

GPT2LMHeadModel

chatml-pyg-v1 📑 🔶

0

40.7

37.88

63.29

32.77

42.61

62.51

5.16

GPTJForCausalLM

h2ogpt-gm-oasst1-en-1024-12b 📑 🔶

120

40.65

43.09

69.75

25.87

38.0

66.14

1.06

GPTNeoXForCausalLM

open-llama-3b-everythingLM-2048 📑 🔶

34.3

40.62

42.75

71.72

27.16

34.26

66.3

1.52

LlamaForCausalLM

Javalion-R 📑 🔶

0

40.51

41.72

68.02

30.81

34.44

65.43

2.65

GPTJForCausalLM

h2ogpt-oasst1-512-12b 📑 🔶

120

40.48

42.32

70.24

26.01

36.41

66.22

1.67

GPTNeoXForCausalLM

ThetaWave-28B-v0.1 📑 🟢

281.8

40.4

36.6

35.54

54.5

49.86

65.9

0.0

MistralForCausalLM

Javelin-R 📑 🔶

0

40.39

41.64

69.01

30.7

34.5

64.8

1.67

GPTJForCausalLM

WizardCoder-Python-7B-V1.0 📑 🔶

70

40.32

41.81

65.06

32.29

36.32

61.72

4.7

LlamaForCausalLM

smartyplats-3b-v2 📑 💬

30

40.29

41.04

71.19

24.32

36.66

66.93

1.59

LlamaForCausalLM

open_llama_3b_v2 📑 🟢

30

40.28

40.27

71.6

27.12

34.78

67.01

0.91

LlamaForCausalLM

openllama_3b_EvolInstruct_lora_merged 📑 💬

30

40.28

40.27

71.6

27.12

34.78

67.01

0.91

LlamaForCausalLM

CodeLlama-34B-Python-fp16 📑 💬

337.4

40.27

38.14

34.8

32.95

43.57

72.14

20.02

LlamaForCausalLM

CodeLlama-34b-Python-hf 📑 💬

337.4

40.27

40.19

36.82

34.79

44.28

71.19

14.33

LlamaForCausalLM

open-llama-3b-v2-layla 📑 🔶

30

40.25

38.23

66.43

28.56

44.4

62.83

1.06

LlamaForCausalLM

Javelin-GPTJ 📑 🔶

0

40.23

42.66

70.45

26.2

36.08

64.17

1.82

GPTJForCausalLM

tora-code-7b-v1.0 📑 💬

70

40.21

40.7

65.86

33.34

34.84

61.56

4.93

LlamaForCausalLM

Janin-R 📑 🔶

0

40.19

40.44

67.36

31.24

34.49

65.35

2.27

GPTJForCausalLM

Bean-3B 📑 🔶

34.3

40.18

40.36

72.0

26.43

36.11

65.67

0.53

LlamaForCausalLM

gpt-j-6b ✅ 📑 🟢

60

40.1

41.38

67.54

26.78

35.96

65.98

2.96

GPTJForCausalLM

calypso-3b-alpha-v2 📑 🔶

30

40.09

41.55

71.48

25.82

35.73

65.27

0.68

LlamaForCausalLM

CodeBarcenas-7b 📑 🔶

70

40.09

42.32

63.43

33.39

38.51

60.38

2.5

LlamaForCausalLM

opt-13b 📑 🟢

130

40.06

39.93

71.2

24.9

34.1

68.51

1.74

OPTForCausalLM

CodeLlama-7b-Instruct-hf 📑 💬

67.4

40.05

36.52

55.44

34.54

41.25

64.56

7.96

LlamaForCausalLM

DopeyTinyLlama-1.1B-v1 📑 🔶

11

40.04

38.4

63.49

25.76

37.36

73.4

1.82

LlamaForCausalLM

speechless-tools-7b 📑 🔶

70

40.0

38.91

57.69

33.24

44.08

58.56

7.51

LlamaForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: h2ogpt-gm-oasst1-en-1024-20b 📑 🔶
参数大小:

200

平均分:

42.58

模型名称: llama-2-13b-chat-hf-phr_mental_therapy 📑 🔶
参数大小:

130

平均分:

42.5

模型名称: h2ogpt-oasst1-512-20b ✅ 📑 🔶
参数大小:

200

平均分:

42.44

模型名称: codellama_7b_DolphinCoder 📑 🔶
参数大小:

70

平均分:

42.39

模型名称: codellama_7b_DolphinCoder 📑 🔶
参数大小:

70

平均分:

42.39

模型名称: LL7M 📑 🔶
参数大小:

0.1

平均分:

42.38

模型名称: RedPajama-INCITE-7B-Instruct 📑 🔶
参数大小:

70

平均分:

42.38

模型名称: RedPajama-INCITE-Instruct-7B-v0.1 📑 🔶
参数大小:

66.5

平均分:

42.38

模型名称: open_llama_7b 📑 🟢
参数大小:

70

平均分:

42.31

模型名称: bloomz-7b1-mt-sft-chat 📑 🔶
参数大小:

70.7

平均分:

42.24

模型名称: Galpaca-30b-MiniOrca 📑 💬
参数大小:

299.7

平均分:

42.23

模型名称: pythia-12b-sft-v8-7k-steps 📑 🔶
参数大小:

120

平均分:

42.21

模型名称: bloomz-7b1 📑
参数大小:

70

平均分:

42.21

模型名称: bloomz-7b1-mt 📑
参数大小:

70

平均分:

42.14

模型名称: Sheared-LLaMA-2.7B-ShareGPT 📑 🔶
参数大小:

27

平均分:

42.11

模型名称: palmyra-large 📑 🟢
参数大小:

0

平均分:

42.09

模型名称: pygmalion-6b-vicuna-chatml 📑 🔶
参数大小:

60

平均分:

42.08

模型名称: Marx-3B-V2 📑 🔶
参数大小:

34.3

平均分:

42.08

模型名称: speechless-tora-code-7b-v1.0 📑 🔶
参数大小:

70

平均分:

42.04

模型名称: open-llama-3b-v2-instruct 📑 💬
参数大小:

34.3

平均分:

42.02

模型名称: opt-30b 📑 🟢
参数大小:

300

平均分:

42.0

模型名称: datascience-coder-6.7b 📑 🔶
参数大小:

67

平均分:

41.99

模型名称: pythia-12b-sft-v8-2.5k-steps 📑 🔶
参数大小:

120

平均分:

41.97

模型名称: h2ogpt-gm-oasst1-multilang-1024-20b 📑 🔶
参数大小:

200

平均分:

41.9

模型名称: GPT-JT-Moderation-6B 📑
参数大小:

60

平均分:

41.8

模型名称: Barcenas-3b 📑 🔶
参数大小:

30

平均分:

41.74

模型名称: gpt-sw3-6.7b-v2-instruct 📑 💬
参数大小:

71.1

平均分:

41.72

模型名称: Marx-3B 📑 🔶
参数大小:

34.3

平均分:

41.71

模型名称: gpt-neox-20b ✅ 📑 🟢
参数大小:

207.4

平均分:

41.69

模型名称: pythia-12b-sft-v8-rlhf-2k-steps 📑
参数大小:

120

平均分:

41.65

模型名称: shearedplats-2.7b-v2 📑 💬
参数大小:

27

平均分:

41.61

模型名称: MiniMerlin-3b-v0.1 📑 💬
参数大小:

30.2

平均分:

41.6

模型名称: glaive-coder-7b 📑 🔶
参数大小:

70

平均分:

41.56

模型名称: RedPajama-INCITE-7B-Base 📑 🟢
参数大小:

70

平均分:

41.49

模型名称: gpt4all-j ✅ 📑
参数大小:

0

平均分:

41.49

模型名称: gpt4all-j ✅ 📑
参数大小:

0

平均分:

41.49

模型名称: open-llama-3b-v2-wizard-evol-instuct-v2-196k 📑 🔶
参数大小:

34.3

平均分:

41.46

模型名称: MiniMA-3B 📑 🟢
参数大小:

30.2

平均分:

41.44

模型名称: open-llama-3b-everything-v2 📑 🔶
参数大小:

34.3

平均分:

41.41

模型名称: mommygpt-3B 📑 🔶
参数大小:

34.3

平均分:

41.36

模型名称: orca_mini_13b 📑
参数大小:

128.5

平均分:

41.36

模型名称: nucleus-22B-token-500B 📑 🟢
参数大小:

218.3

平均分:

41.33

模型名称: llama-2-34b-uncode 📑 🔶
参数大小:

337.4

平均分:

41.33

模型名称: oasst-sft-4-pythia-12b-epoch-3.5 ✅ 📑 🔶
参数大小:

120

平均分:

41.31

模型名称: orca_mini_7b 📑 🔶
参数大小:

66.1

平均分:

41.27

模型名称: GPT-NeoX-20B-Erebus 📑 🔶
参数大小:

200

平均分:

41.26

模型名称: RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 🟢
参数大小:

66.5

平均分:

41.25

模型名称: mamba-gpt-3b-v4 📑 🔶
参数大小:

34.3

平均分:

41.24

模型名称: open-llama-3b-v2-elmv3 📑 🔶
参数大小:

34.3

平均分:

41.14

模型名称: Griffin-3B 📑 🔶
参数大小:

34.3

平均分:

41.13

模型名称: shearedplats-2.7b-v2-instruct-v0.1 📑 💬
参数大小:

27

平均分:

41.13

模型名称: open-llama-3b-v2-elmv3 📑 🔶
参数大小:

34.3

平均分:

41.13

模型名称: speechless-coder-ds-6.7b 📑 🔶
参数大小:

67

平均分:

41.11

模型名称: open-llama-0.7T-7B-open-instruct-v1.1 📑 🔶
参数大小:

70

平均分:

41.11

模型名称: mamba-gpt-3b-v3 📑 🔶
参数大小:

34.3

平均分:

41.11

模型名称: pythia-12b-pre-v8-12.5k-steps 📑 🔶
参数大小:

120

平均分:

41.1

模型名称: GPT-NeoX-20B-Skein 📑 🔶
参数大小:

200

平均分:

41.1

模型名称: open-llama-3b-v2-wizard-evol-instuct-v2-196k 📑 🔶
参数大小:

34.3

平均分:

41.09

模型名称: FLAMA-0.1-3B 📑 🔶
参数大小:

30

平均分:

41.07

模型名称: OpenLlama-Platypus-3B 📑 🔶
参数大小:

34.3

平均分:

41.05

模型名称: Puma-3B 📑 🔶
参数大小:

34.3

平均分:

41.02

模型名称: wizard-orca-3b 📑 🔶
参数大小:

34.3

平均分:

41.0

模型名称: Amber 📑 🟢
参数大小:

0

平均分:

40.97

模型名称: open-llama-3b-claude-30k 📑 🔶
参数大小:

34.3

平均分:

40.93

模型名称: open-llama-3b-v2-chat 📑 💬
参数大小:

34.3

平均分:

40.93

模型名称: deepseek-coder-6.7b-chat-and-function-calling 📑 🔶
参数大小:

67.4

平均分:

40.91

模型名称: deepseek-coder-6.7b-chat 📑 🔶
参数大小:

67.4

平均分:

40.9

模型名称: deepseek-coder-6.7b-chat 📑 🔶
参数大小:

67.4

平均分:

40.9

模型名称: Sheared-LLaMA-2.7B 📑 🔶
参数大小:

27

平均分:

40.84

模型名称: amber_fine_tune_ori 📑 🔶
参数大小:

67.4

平均分:

40.83

模型名称: GPT-R 📑 🔶
参数大小:

0

平均分:

40.8

模型名称: ShortKing-3b-v0.3 📑 🔶
参数大小:

34.3

平均分:

40.8

模型名称: oasst-sft-1-pythia-12b 📑 🔶
参数大小:

120

平均分:

40.77

模型名称: gogpt-7b-bloom 📑 🔶
参数大小:

70

平均分:

40.75

模型名称: gpt-sw3-20b 📑 🟢
参数大小:

209.2

平均分:

40.71

模型名称: chatml-pyg-v1 📑 🔶
参数大小:

0

平均分:

40.7

模型名称: h2ogpt-gm-oasst1-en-1024-12b 📑 🔶
参数大小:

120

平均分:

40.65

模型名称: open-llama-3b-everythingLM-2048 📑 🔶
参数大小:

34.3

平均分:

40.62

模型名称: Javalion-R 📑 🔶
参数大小:

0

平均分:

40.51

模型名称: h2ogpt-oasst1-512-12b 📑 🔶
参数大小:

120

平均分:

40.48

模型名称: ThetaWave-28B-v0.1 📑 🟢
参数大小:

281.8

平均分:

40.4

模型名称: Javelin-R 📑 🔶
参数大小:

0

平均分:

40.39

模型名称: WizardCoder-Python-7B-V1.0 📑 🔶
参数大小:

70

平均分:

40.32

模型名称: smartyplats-3b-v2 📑 💬
参数大小:

30

平均分:

40.29

模型名称: open_llama_3b_v2 📑 🟢
参数大小:

30

平均分:

40.28

模型名称: openllama_3b_EvolInstruct_lora_merged 📑 💬
参数大小:

30

平均分:

40.28

模型名称: CodeLlama-34B-Python-fp16 📑 💬
参数大小:

337.4

平均分:

40.27

模型名称: CodeLlama-34b-Python-hf 📑 💬
参数大小:

337.4

平均分:

40.27

模型名称: open-llama-3b-v2-layla 📑 🔶
参数大小:

30

平均分:

40.25

模型名称: Javelin-GPTJ 📑 🔶
参数大小:

0

平均分:

40.23

模型名称: tora-code-7b-v1.0 📑 💬
参数大小:

70

平均分:

40.21

模型名称: Janin-R 📑 🔶
参数大小:

0

平均分:

40.19

模型名称: Bean-3B 📑 🔶
参数大小:

34.3

平均分:

40.18

模型名称: gpt-j-6b ✅ 📑 🟢
参数大小:

60

平均分:

40.1

模型名称: calypso-3b-alpha-v2 📑 🔶
参数大小:

30

平均分:

40.09

模型名称: CodeBarcenas-7b 📑 🔶
参数大小:

70

平均分:

40.09

模型名称: opt-13b 📑 🟢
参数大小:

130

平均分:

40.06

模型名称: CodeLlama-7b-Instruct-hf 📑 💬
参数大小:

67.4

平均分:

40.05

模型名称: DopeyTinyLlama-1.1B-v1 📑 🔶
参数大小:

11

平均分:

40.04

模型名称: speechless-tools-7b 📑 🔶
参数大小:

70

平均分:

40.0