大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
DistiLabelOrca-TinyLLama-1.1B 📑 🔶

11

37.17

36.18

61.15

25.09

38.05

60.85

1.67

LlamaForCausalLM

TinyLlama-1.1B-2.5T-chat-and-function-calling 📑 🔶

11

37.16

34.39

59.61

26.32

38.92

61.96

1.74

LlamaForCausalLM

lamatama 📑 🔶

11

37.15

36.35

61.12

24.72

37.67

60.77

2.27

LlamaForCausalLM

Sheared-LLaMA-1.3B-ShareGPT 📑 🔶

13

37.14

33.96

62.55

26.42

43.03

56.83

0.08

LlamaForCausalLM

Barcenas-Tiny-1.1b-DPO 📑 🔶

11

37.12

36.26

61.2

24.83

37.45

60.93

2.05

LlamaForCausalLM

pythia-2.7b 📑 🟢

29.1

37.09

37.37

60.74

25.86

35.4

62.12

1.06

Unknown

TinyLlama-repeat 📑 🔶

11

37.09

35.24

60.25

26.07

38.78

60.46

1.74

LlamaForCausalLM

TinyLlama-1.1B-Chat-v1.0-intel-dpo 📑 💬

11

37.09

35.84

61.29

25.05

37.38

61.01

1.97

LlamaForCausalLM

falcon-rw-1b 📑 🟢

10

37.07

35.07

63.56

25.28

35.96

62.04

0.53

FalconForCausalLM

Phind-CodeLlama-34B-v1 📑 🔶

340

37.06

27.13

28.28

28.94

44.94

72.61

20.47

LlamaForCausalLM

OpenHermes-2.5-FLOR-6.3B 📑 🔶

63

37.04

33.45

54.53

25.18

46.12

62.98

0.0

BloomForCausalLM

TinyLlama-Cinder-1.3B-Test.2 📑 🔶

12.8

37.04

33.7

58.66

25.69

37.98

64.09

2.12

LlamaForCausalLM

bloomz-3b 📑

30

37.03

36.86

54.95

32.91

40.34

57.14

0.0

BloomForCausalLM

TinyNaughtyLlama-v1.0 📑 💬

11

37.03

35.92

61.04

25.82

36.77

60.22

2.43

LlamaForCausalLM

TinyLlama-1.1B-Chat-v1.0-reasoning-v2-dpo 📑 🔶

11

37.03

34.39

61.87

26.34

36.13

63.46

0.0

LlamaForCausalLM

TinyLlama-1.1B-miniguanaco 📑 🔶

11

37.02

35.15

60.26

26.26

38.84

60.14

1.44

?

CodeLlama-13b-Python-hf 📑 💬

130.2

37.0

32.59

43.94

27.23

44.59

65.04

8.64

LlamaForCausalLM

TinyLlama-1.1B-Chat-v1.0-x2-MoE 📑 🔶

18.6

36.98

36.01

61.04

24.81

37.37

60.38

2.27

MixtralForCausalLM

OPT-2.7B-Erebus 📑 🔶

27

36.96

34.39

60.91

26.7

37.82

61.64

0.3

OPTForCausalLM

LlamaCorn-1.1B 📑 🔶

11

36.94

34.13

59.33

29.01

36.78

61.96

0.45

LlamaForCausalLM

bloomz-3b-sft-chat 📑 🔶

30

36.94

36.86

54.34

31.49

39.69

58.88

0.38

BloomForCausalLM

TinyLlama-1.1B-2.5T-chat 📑 🔶

11

36.93

34.47

59.71

26.45

38.8

61.01

1.14

LlamaForCausalLM

blossom-v1-3b 📑 🔶

30

36.9

36.86

55.1

26.7

43.45

58.88

0.38

BloomForCausalLM

Phind-CodeLlama-34B-v2 📑 💬

340

36.89

24.57

27.6

25.76

48.37

71.82

23.2

LlamaForCausalLM

CodeLlama-7b-Python-hf 📑 💬

67.4

36.89

31.31

52.86

27.32

42.21

63.06

4.55

LlamaForCausalLM

falcon_1b_stage2 📑 🔶

10

36.88

33.11

63.19

24.22

38.4

62.35

0.0

FalconForCausalLM

OPT-2.7B-Nerybus-Mix 📑 🔶

27

36.88

33.7

61.21

26.6

37.57

62.04

0.15

OPTForCausalLM

openbuddy-openllama-3b-v10-bf16 📑 🔶

30

36.87

36.26

58.38

23.89

42.04

59.67

0.99

LlamaForCausalLM

Tinyllama-1.3B-Cinder-Reason-Test-2 📑 🔶

12.8

36.83

32.76

57.92

25.42

37.26

64.8

2.81

LlamaForCausalLM

tinyllama-1.1b-layla-v1 📑 🔶

11

36.82

34.39

59.86

24.7

41.03

59.75

1.21

LlamaForCausalLM

camel-5b-hf 📑 🔶

50

36.81

35.15

57.62

26.07

40.65

61.01

0.38

GPT2LMHeadModel

palmer-002 📑 🔶

0

36.79

34.47

59.41

25.94

37.06

62.67

1.21

LlamaForCausalLM

pythia-2.8b-4bit-alpaca 📑 🔶

28

36.77

34.73

58.96

25.53

39.14

61.64

0.61

Unknown

OPT-2.7B-Nerys-v2 📑 🔶

27

36.75

33.28

61.23

26.44

37.23

62.04

0.3

OPTForCausalLM

dopeyshearedplats-1.3b-v1 📑 💬

13

36.74

34.39

64.31

25.4

38.21

57.38

0.76

LlamaForCausalLM

opt-2.7b 📑 🟢

27

36.74

33.96

61.43

25.43

37.43

61.96

0.23

OPTForCausalLM

LLmRa-2.7B 📑 🔶

27

36.72

37.03

60.65

25.58

35.23

61.56

0.3

OPTForCausalLM

pythia-2.8b-deduped 📑 🟢

29.1

36.72

36.26

60.66

26.78

35.56

60.22

0.83

GPTNeoXForCausalLM

chopt-2_7b 📑 🔶

70

36.72

36.01

63.38

25.44

37.71

57.77

0.0

OPTForCausalLM

open_llama_3b_600bt_preview 📑 🔶

34.3

36.65

36.86

59.96

25.97

32.81

63.69

0.61

LlamaForCausalLM

42dot_LLM-SFT-1.3B 📑 💬

14.4

36.61

36.09

58.96

25.51

39.98

58.41

0.68

LlamaForCausalLM

TinyLlama-1.1B-OpenHermes-2.5-Chat-v0.1-sft 📑 🔶

11

36.59

33.79

58.72

24.52

36.22

60.93

5.38

LlamaForCausalLM

Deer-3b 📑 💬

30

36.55

38.48

57.41

25.64

39.98

57.46

0.3

BloomForCausalLM

Tukan-1.1B-Chat-reasoning-sft-COLA 📑 🔶

11

36.53

34.13

59.78

24.86

38.25

60.77

1.36

LlamaForCausalLM

TinyLlama-3T-1.1bee 📑 🔶

11

36.46

33.79

60.29

25.86

38.13

60.22

0.45

LlamaForCausalLM

CodeLlama-7b-Python-hf 📑 💬

67.4

36.42

29.27

50.12

28.37

41.61

64.01

5.16

LlamaForCausalLM

TinyLlama-1.1B-intermediate-step-1431k-3T ✅ 📑 🟢

11

36.42

33.87

60.31

26.04

37.32

59.51

1.44

LlamaForCausalLM

xglm-7.5B 📑 🟢

75

36.38

34.13

60.77

27.79

36.66

58.72

0.23

XGLMForCausalLM

TinyDolphin-2.8-1.1b 📑 💬

11

36.34

34.3

59.44

25.59

36.51

60.69

1.52

LlamaForCausalLM

Phind-CodeLlama-34B-Python-v1 ✅ 📑 🔶

340

36.33

24.66

29.77

27.95

45.27

68.82

21.53

LlamaForCausalLM

Phind-CodeLlama-34B-Python-v1 ✅ 📑 🔶

340

36.33

24.66

29.77

27.95

45.27

68.82

21.53

LlamaForCausalLM

Cerebras-GPT-6.7B 📑 🟢

67

36.27

35.07

59.36

25.93

38.02

58.72

0.53

?

TinyLlama-1.1B-intermediate-step-1195k-token-2.5T 📑

11

36.26

33.53

59.38

26.22

36.79

60.22

1.44

LlamaForCausalLM

TinyDolphin-2.8.1-1.1b 📑 💬

11

36.21

34.98

60.11

25.31

35.51

60.69

0.68

LlamaForCausalLM

gpt-neo-2.7B 📑 🟢

27.2

36.2

33.36

56.24

26.45

39.78

60.06

1.29

GPTNeoForCausalLM

bertin-gpt-j-6B-alpaca 📑 🔶

60

36.19

36.01

54.3

27.66

43.38

55.8

0.0

GPTJForCausalLM

falcon_1b_stage3_2 📑 🔶

10

36.19

34.56

58.37

23.87

39.89

60.46

0.0

FalconForCausalLM

StellarX-4B-V0.2 📑 🟢

40

36.15

34.64

56.74

25.55

38.55

61.4

0.0

GPTNeoXForCausalLM

bloom-3b 📑 🟢

30

36.07

35.75

54.37

26.59

40.57

57.62

1.52

BloomForCausalLM

Wizard-Vicuna-13B-Uncensored-GPTQ 📑

162.2

36.06

29.61

25.47

25.34

50.25

75.77

9.93

LlamaForCausalLM

Deacon-1_8b 📑 💬

18.4

36.03

33.7

52.33

33.97

39.05

57.14

0.0

LlamaForCausalLM

TinyOpenHermes-1.1B-4k 📑 💬

11

35.98

33.62

58.53

26.45

37.33

59.91

0.08

LlamaForCausalLM

blossom-v2-3b 📑 🔶

30

35.98

35.32

54.1

23.99

43.11

58.8

0.53

BloomForCausalLM

shearedplats-1.3b-v1 📑 💬

13

35.97

35.41

62.75

24.75

33.93

58.48

0.53

LlamaForCausalLM

localmentor_25K_3epochs_tinyllama 📑 🔶

11

35.96

34.22

59.01

24.93

36.07

60.46

1.06

Unknown

Sheared-LLaMA-1.3B 📑 🔶

13

35.95

32.85

60.91

25.71

37.14

58.64

0.45

LlamaForCausalLM

TinyDolphin-2.8.2-1.1b-laser 📑 💬

11

35.93

33.36

58.53

25.93

36.33

60.14

1.29

LlamaForCausalLM

CodeLlama-34b-Python-hf 📑 🔶

334.8

35.92

38.05

34.79

32.96

43.57

66.14

0.0

Unknown

TinyLamma-SFT 📑 🔶

11

35.88

34.39

59.14

24.26

37.2

58.64

1.67

LlamaForCausalLM

opt-flan-iml-6.7b 📑 💬

66.6

35.84

30.12

58.82

25.12

36.74

64.25

0.0

OPTForCausalLM

Tinyllama-1.3B-Cinder-Reason-Test 📑 🔶

12.8

35.84

32.51

55.85

26.61

35.59

62.12

2.35

LlamaForCausalLM

sheared-silicon10p 📑 🤝

27

35.82

36.18

51.12

25.56

44.85

57.22

0.0

LlamaForCausalLM

Tinypus-1.5B 📑 🔶

14.5

35.73

33.45

57.35

25.53

39.35

57.7

0.99

LlamaForCausalLM

ShearedLlama-1.3b-FFT-Test1 📑 🟢

13

35.71

32.68

59.99

25.69

36.97

58.72

0.23

LlamaForCausalLM

42dot_LLM-PLM-1.3B 📑 🔶

14.4

35.7

32.42

56.39

27.09

38.68

58.88

0.76

LlamaForCausalLM

starcoder-finetune-selfinstruct 📑 🔶

0

35.65

31.23

47.66

29.52

41.63

57.77

6.07

Unknown

20231206094523-pretrain-Llama-2-13b-hf-76000 📑 🔶

132.5

35.58

31.06

52.03

24.43

44.71

61.25

0.0

LlamaForCausalLM

tinyllama-oasst1-top1-instruct-full-lr1-5-v0.1 📑 🔶

11

35.58

32.85

58.16

25.96

38.35

57.7

0.45

LlamaForCausalLM

Cinder-1.3B-Test 📑 🔶

12.8

35.57

33.19

55.48

26.37

36.62

58.96

2.81

LlamaForCausalLM

wizard-vicuna-13B-GPTQ 📑

162.2

35.56

28.67

25.94

25.84

48.53

74.74

9.63

LlamaForCausalLM

TinyLlama-1.1B-Chat-v0.3 📑 🔶

10.3

35.56

35.07

57.7

25.53

36.67

57.7

0.68

Unknown

wangchanglm-7.5B-sft-en-sharded 📑 🔶

75

35.55

34.47

59.81

26.37

34.15

58.25

0.23

XGLMForCausalLM

open-cabrita3b 📑 🔶

30

35.54

33.79

55.35

25.16

38.5

59.43

0.99

LlamaForCausalLM

TinyLlama-1.1B-FFT-Test2 📑 🔶

11

35.53

34.22

57.96

25.54

36.32

58.8

0.38

LlamaForCausalLM

starchat-alpha 📑

155.2

35.49

31.57

49.43

30.76

43.66

55.09

2.43

GPTBigCodeForCausalLM

ShortKingv0.1 📑 🔶

14.2

35.45

34.22

54.59

25.78

41.64

56.04

0.45

Unknown

TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-2.2epochs-oasst1-top1-instruct-V1 📑 🔶

11

35.45

31.48

54.4

25.47

42.34

57.54

1.44

LlamaForCausalLM

Nape-0 📑 🔶

11

35.43

32.68

58.68

24.88

38.99

57.3

0.08

LlamaForCausalLM

starcoder_mirror 📑 🔶

0

35.43

31.31

45.82

29.29

43.38

57.22

5.53

Unknown

TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-3epochs-oasst1-top1-instruct-V1 📑 🔶

11

35.42

31.4

54.24

25.36

42.47

57.7

1.36

LlamaForCausalLM

openchat_v2_openorca_preview-GPTQ 📑

162.2

35.38

27.99

26.06

24.24

50.08

70.64

13.27

LlamaForCausalLM

chopt-1_3b 📑 🔶

30

35.32

31.48

56.63

25.35

40.19

58.25

0.0

OPTForCausalLM

Walter-Llama-1B 📑 💬

11

35.29

32.85

61.05

27.46

33.93

56.43

0.0

LlamaForCausalLM

dopeyplats-1.1b-2T-v1 📑 💬

11

35.28

33.11

54.31

24.55

39.26

58.8

1.67

LlamaForCausalLM

TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-4epochs-oasst1-top1-instruct-V1 📑 🔶

11

35.28

31.14

54.31

25.42

41.72

57.77

1.29

LlamaForCausalLM

TinyLlama-3T-Cinder-v1.2 📑 🔶

11

35.26

34.39

56.51

26.14

36.78

57.7

0.08

LlamaForCausalLM

platypus-1_8b 📑 💬

18.4

35.24

33.28

50.76

33.25

40.73

52.96

0.45

LlamaForCausalLM

Deacon-1b 📑 💬

11

35.21

32.42

58.62

24.89

35.05

59.59

0.68

LlamaForCausalLM

opt-iml-max-1.3b 📑

13

35.21

30.72

53.81

27.61

38.34

60.22

0.53

OPTForCausalLM

palmyra-base 📑 🟢

0

35.18

31.91

55.39

27.15

37.57

58.09

0.99

GPT2LMHeadModel

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: DistiLabelOrca-TinyLLama-1.1B 📑 🔶
参数大小:

11

平均分:

37.17

模型名称: TinyLlama-1.1B-2.5T-chat-and-function-calling 📑 🔶
参数大小:

11

平均分:

37.16

模型名称: lamatama 📑 🔶
参数大小:

11

平均分:

37.15

模型名称: Sheared-LLaMA-1.3B-ShareGPT 📑 🔶
参数大小:

13

平均分:

37.14

模型名称: Barcenas-Tiny-1.1b-DPO 📑 🔶
参数大小:

11

平均分:

37.12

模型名称: pythia-2.7b 📑 🟢
参数大小:

29.1

平均分:

37.09

模型名称: TinyLlama-repeat 📑 🔶
参数大小:

11

平均分:

37.09

模型名称: TinyLlama-1.1B-Chat-v1.0-intel-dpo 📑 💬
参数大小:

11

平均分:

37.09

模型名称: falcon-rw-1b 📑 🟢
参数大小:

10

平均分:

37.07

模型名称: Phind-CodeLlama-34B-v1 📑 🔶
参数大小:

340

平均分:

37.06

模型名称: OpenHermes-2.5-FLOR-6.3B 📑 🔶
参数大小:

63

平均分:

37.04

模型名称: TinyLlama-Cinder-1.3B-Test.2 📑 🔶
参数大小:

12.8

平均分:

37.04

模型名称: bloomz-3b 📑
参数大小:

30

平均分:

37.03

模型名称: TinyNaughtyLlama-v1.0 📑 💬
参数大小:

11

平均分:

37.03

模型名称: TinyLlama-1.1B-Chat-v1.0-reasoning-v2-dpo 📑 🔶
参数大小:

11

平均分:

37.03

模型名称: TinyLlama-1.1B-miniguanaco 📑 🔶
参数大小:

11

平均分:

37.02

模型名称: CodeLlama-13b-Python-hf 📑 💬
参数大小:

130.2

平均分:

37.0

模型名称: TinyLlama-1.1B-Chat-v1.0-x2-MoE 📑 🔶
参数大小:

18.6

平均分:

36.98

模型名称: OPT-2.7B-Erebus 📑 🔶
参数大小:

27

平均分:

36.96

模型名称: LlamaCorn-1.1B 📑 🔶
参数大小:

11

平均分:

36.94

模型名称: bloomz-3b-sft-chat 📑 🔶
参数大小:

30

平均分:

36.94

模型名称: TinyLlama-1.1B-2.5T-chat 📑 🔶
参数大小:

11

平均分:

36.93

模型名称: blossom-v1-3b 📑 🔶
参数大小:

30

平均分:

36.9

模型名称: Phind-CodeLlama-34B-v2 📑 💬
参数大小:

340

平均分:

36.89

模型名称: CodeLlama-7b-Python-hf 📑 💬
参数大小:

67.4

平均分:

36.89

模型名称: falcon_1b_stage2 📑 🔶
参数大小:

10

平均分:

36.88

模型名称: OPT-2.7B-Nerybus-Mix 📑 🔶
参数大小:

27

平均分:

36.88

模型名称: openbuddy-openllama-3b-v10-bf16 📑 🔶
参数大小:

30

平均分:

36.87

模型名称: Tinyllama-1.3B-Cinder-Reason-Test-2 📑 🔶
参数大小:

12.8

平均分:

36.83

模型名称: tinyllama-1.1b-layla-v1 📑 🔶
参数大小:

11

平均分:

36.82

模型名称: camel-5b-hf 📑 🔶
参数大小:

50

平均分:

36.81

模型名称: palmer-002 📑 🔶
参数大小:

0

平均分:

36.79

模型名称: pythia-2.8b-4bit-alpaca 📑 🔶
参数大小:

28

平均分:

36.77

模型名称: OPT-2.7B-Nerys-v2 📑 🔶
参数大小:

27

平均分:

36.75

模型名称: dopeyshearedplats-1.3b-v1 📑 💬
参数大小:

13

平均分:

36.74

模型名称: opt-2.7b 📑 🟢
参数大小:

27

平均分:

36.74

模型名称: LLmRa-2.7B 📑 🔶
参数大小:

27

平均分:

36.72

模型名称: pythia-2.8b-deduped 📑 🟢
参数大小:

29.1

平均分:

36.72

模型名称: chopt-2_7b 📑 🔶
参数大小:

70

平均分:

36.72

模型名称: open_llama_3b_600bt_preview 📑 🔶
参数大小:

34.3

平均分:

36.65

模型名称: 42dot_LLM-SFT-1.3B 📑 💬
参数大小:

14.4

平均分:

36.61

模型名称: TinyLlama-1.1B-OpenHermes-2.5-Chat-v0.1-sft 📑 🔶
参数大小:

11

平均分:

36.59

模型名称: Deer-3b 📑 💬
参数大小:

30

平均分:

36.55

模型名称: Tukan-1.1B-Chat-reasoning-sft-COLA 📑 🔶
参数大小:

11

平均分:

36.53

模型名称: TinyLlama-3T-1.1bee 📑 🔶
参数大小:

11

平均分:

36.46

模型名称: CodeLlama-7b-Python-hf 📑 💬
参数大小:

67.4

平均分:

36.42

模型名称: TinyLlama-1.1B-intermediate-step-1431k-3T ✅ 📑 🟢
参数大小:

11

平均分:

36.42

模型名称: xglm-7.5B 📑 🟢
参数大小:

75

平均分:

36.38

模型名称: TinyDolphin-2.8-1.1b 📑 💬
参数大小:

11

平均分:

36.34

模型名称: Phind-CodeLlama-34B-Python-v1 ✅ 📑 🔶
参数大小:

340

平均分:

36.33

模型名称: Phind-CodeLlama-34B-Python-v1 ✅ 📑 🔶
参数大小:

340

平均分:

36.33

模型名称: Cerebras-GPT-6.7B 📑 🟢
参数大小:

67

平均分:

36.27

模型名称: TinyLlama-1.1B-intermediate-step-1195k-token-2.5T 📑
参数大小:

11

平均分:

36.26

模型名称: TinyDolphin-2.8.1-1.1b 📑 💬
参数大小:

11

平均分:

36.21

模型名称: gpt-neo-2.7B 📑 🟢
参数大小:

27.2

平均分:

36.2

模型名称: bertin-gpt-j-6B-alpaca 📑 🔶
参数大小:

60

平均分:

36.19

模型名称: falcon_1b_stage3_2 📑 🔶
参数大小:

10

平均分:

36.19

模型名称: StellarX-4B-V0.2 📑 🟢
参数大小:

40

平均分:

36.15

模型名称: bloom-3b 📑 🟢
参数大小:

30

平均分:

36.07

模型名称: Wizard-Vicuna-13B-Uncensored-GPTQ 📑
参数大小:

162.2

平均分:

36.06

模型名称: Deacon-1_8b 📑 💬
参数大小:

18.4

平均分:

36.03

模型名称: TinyOpenHermes-1.1B-4k 📑 💬
参数大小:

11

平均分:

35.98

模型名称: blossom-v2-3b 📑 🔶
参数大小:

30

平均分:

35.98

模型名称: shearedplats-1.3b-v1 📑 💬
参数大小:

13

平均分:

35.97

模型名称: localmentor_25K_3epochs_tinyllama 📑 🔶
参数大小:

11

平均分:

35.96

模型名称: Sheared-LLaMA-1.3B 📑 🔶
参数大小:

13

平均分:

35.95

模型名称: TinyDolphin-2.8.2-1.1b-laser 📑 💬
参数大小:

11

平均分:

35.93

模型名称: CodeLlama-34b-Python-hf 📑 🔶
参数大小:

334.8

平均分:

35.92

模型名称: TinyLamma-SFT 📑 🔶
参数大小:

11

平均分:

35.88

模型名称: opt-flan-iml-6.7b 📑 💬
参数大小:

66.6

平均分:

35.84

模型名称: Tinyllama-1.3B-Cinder-Reason-Test 📑 🔶
参数大小:

12.8

平均分:

35.84

模型名称: sheared-silicon10p 📑 🤝
参数大小:

27

平均分:

35.82

模型名称: Tinypus-1.5B 📑 🔶
参数大小:

14.5

平均分:

35.73

模型名称: ShearedLlama-1.3b-FFT-Test1 📑 🟢
参数大小:

13

平均分:

35.71

模型名称: 42dot_LLM-PLM-1.3B 📑 🔶
参数大小:

14.4

平均分:

35.7

模型名称: starcoder-finetune-selfinstruct 📑 🔶
参数大小:

0

平均分:

35.65

模型名称: 20231206094523-pretrain-Llama-2-13b-hf-76000 📑 🔶
参数大小:

132.5

平均分:

35.58

模型名称: tinyllama-oasst1-top1-instruct-full-lr1-5-v0.1 📑 🔶
参数大小:

11

平均分:

35.58

模型名称: Cinder-1.3B-Test 📑 🔶
参数大小:

12.8

平均分:

35.57

模型名称: wizard-vicuna-13B-GPTQ 📑
参数大小:

162.2

平均分:

35.56

模型名称: TinyLlama-1.1B-Chat-v0.3 📑 🔶
参数大小:

10.3

平均分:

35.56

模型名称: wangchanglm-7.5B-sft-en-sharded 📑 🔶
参数大小:

75

平均分:

35.55

模型名称: open-cabrita3b 📑 🔶
参数大小:

30

平均分:

35.54

模型名称: TinyLlama-1.1B-FFT-Test2 📑 🔶
参数大小:

11

平均分:

35.53

模型名称: starchat-alpha 📑
参数大小:

155.2

平均分:

35.49

模型名称: ShortKingv0.1 📑 🔶
参数大小:

14.2

平均分:

35.45

模型名称: TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-2.2epochs-oasst1-top1-instruct-V1 📑 🔶
参数大小:

11

平均分:

35.45

模型名称: Nape-0 📑 🔶
参数大小:

11

平均分:

35.43

模型名称: starcoder_mirror 📑 🔶
参数大小:

0

平均分:

35.43

模型名称: TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-3epochs-oasst1-top1-instruct-V1 📑 🔶
参数大小:

11

平均分:

35.42

模型名称: openchat_v2_openorca_preview-GPTQ 📑
参数大小:

162.2

平均分:

35.38

模型名称: chopt-1_3b 📑 🔶
参数大小:

30

平均分:

35.32

模型名称: Walter-Llama-1B 📑 💬
参数大小:

11

平均分:

35.29

模型名称: dopeyplats-1.1b-2T-v1 📑 💬
参数大小:

11

平均分:

35.28

模型名称: TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-4epochs-oasst1-top1-instruct-V1 📑 🔶
参数大小:

11

平均分:

35.28

模型名称: TinyLlama-3T-Cinder-v1.2 📑 🔶
参数大小:

11

平均分:

35.26

模型名称: platypus-1_8b 📑 💬
参数大小:

18.4

平均分:

35.24

模型名称: Deacon-1b 📑 💬
参数大小:

11

平均分:

35.21

模型名称: opt-iml-max-1.3b 📑
参数大小:

13

平均分:

35.21

模型名称: palmyra-base 📑 🟢
参数大小:

0

平均分:

35.18