大模型评测得分排行榜Open LLM Leaderboard中国站

为了方便大家更便捷查询,DataLearnerAI发布了DataLearnerAI-GPT:目前已经支持基于OpenLLMLeaderboard数据回答任意大模型评测结果数据地址如下:
https://chat.openai.com/g/g-8eu9KgtUm-datalearnerai-gpt
关于DataLearnerAI-GPT的详细介绍参考:https://www.datalearner.com/blog/1051699757266256
随着大量大型语言模型(LLMs)和聊天机器人每周都在发布,它们往往伴随着对性能的夸大宣称,要筛选出由开源社区所取得的真正进展以及哪个模型是当前的技术领先水平,可能会非常困难。
为此,HF推出了这个大模型开放评测追踪排行榜。📐 🤗 Open LLM Leaderboard 旨在追踪、排名和评估开源大型语言模型(LLMs)和聊天机器人在不同评测任务上的得分。
由于HuggingFace的访问稳定性和速度,我们提供了同步更新的结果。原网页请访问:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard

Open LLM Leaderboard排行榜的各个评测任务介绍

下表中关于模型类型的图标解释如下:

🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。

🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。

💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。

🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。

❓:表示未知

你可以按照如下类型筛选不同类型的模型来排序:
模型名称 模型类型 参数大小(亿) 平均分 ARC分数 Hellaswag分数 MMLU分数 TruthfulQA分数 Winogrande分数 GSM8K分数 模型架构
wizard-mega-13B-GPTQ 📑

162.2

35.18

27.73

26.01

24.97

48.69

74.74

8.95

LlamaForCausalLM

chronos-wizardlm-uc-scot-st-13B-GPTQ 📑

162.2

35.15

27.99

26.1

25.72

49.68

74.51

6.9

LlamaForCausalLM

TinyWand-DPO 📑 💬

16.3

35.13

31.66

50.42

26.22

45.8

54.78

1.9

LlamaForCausalLM

pythia-1.4b-deduped-sharegpt 📑 🔶

14.2

35.11

34.3

54.49

24.0

41.81

55.25

0.83

GPTNeoXForCausalLM

wangchanglm-7.5B-sft-enth 📑 🔶

75

35.11

33.79

58.99

24.52

34.9

57.93

0.53

XGLMForCausalLM

metharme-1.3b 📑 🔶

15.2

35.04

34.39

55.94

25.07

37.68

56.43

0.76

GPTNeoXForCausalLM

falcon-1b-t-sft 📑 💬

13.1

35.02

32.94

57.24

25.26

38.49

55.88

0.3

FalconForCausalLM

LLmRa-1.3B 📑 🔶

13.1

35.0

32.68

58.77

23.23

36.21

59.04

0.08

XGLMForCausalLM

pythia-1.4b-deduped 📑 🟢

14

35.0

32.68

54.96

25.56

38.66

57.3

0.83

GPTNeoXForCausalLM

TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-1epch-airoboros3.1-1k-instruct-V1 📑

11

34.98

30.72

54.32

24.78

41.67

57.62

0.76

LlamaForCausalLM

falcon_1b_stage3 📑 🔶

10

34.95

33.11

54.08

25.11

37.92

59.51

0.0

FalconForCausalLM

TinyLlama-1.1B-Chat-v0.6 📑

11

34.94

31.66

55.79

25.98

34.72

59.35

2.12

LlamaForCausalLM

TinyLlama-1.1B-Remix-V.2 📑 🔶

11

34.91

33.19

56.62

25.99

34.64

58.09

0.91

LlamaForCausalLM

Tiny-Vicuna-1B 📑 💬

11

34.76

33.45

55.92

25.45

33.82

58.41

1.52

LlamaForCausalLM

megachat 📑 💬

0

34.75

30.8

54.35

25.55

39.85

56.99

0.99

LlamaForCausalLM

lamini-neo-1.3b 📑 🔶

13.2

34.73

32.76

49.13

28.79

41.05

56.51

0.15

Unknown

LaMini-GPT-1.5B 📑 🔶

15

34.67

31.4

48.38

29.92

42.47

55.88

0.0

GPT2LMHeadModel

WizardCoder-15B-V1.0 ✅ 📑 🔶

150

34.64

32.34

47.2

29.43

41.56

55.17

2.12

GPTBigCodeForCausalLM

TinyWand-SFT 📑 💬

16.3

34.61

31.4

49.96

25.98

43.08

55.17

2.05

LlamaForCausalLM

opt-1.3b 📑

13

34.6

29.52

54.53

24.96

38.71

59.75

0.15

OPTForCausalLM

TinyLlama-1.1B-Chat-v0.1 📑 🔶

11

34.57

32.0

54.21

26.71

39.03

54.93

0.53

Unknown

TinyLlama-1.1B-intermediate-step-955k-token-2T 📑

11

34.56

30.29

54.84

26.47

36.07

58.33

1.36

LlamaForCausalLM

gpt-sw3-1.3b-instruct 📑 💬

14.4

34.54

30.97

51.42

26.17

40.31

56.75

1.59

GPT2LMHeadModel

TinyLlama-1.1B-step-2T-lr-5-5ep-oasst1-top1-instruct-V1 📑

11

34.53

31.06

55.02

26.41

35.08

58.01

1.59

LlamaForCausalLM

tinyllama-1.1b-chat-v0.3_platypus 📑 💬

11

34.5

30.29

55.12

26.13

39.15

55.8

0.53

LlamaForCausalLM

pythia-1.3b 📑 🟢

13.1

34.46

31.14

51.43

26.55

39.24

57.38

0.99

Unknown

PULI-GPTrio 📑 🟢

0

34.42

30.72

53.49

24.73

39.03

57.77

0.76

GPTNeoXForCausalLM

TinyLlama-1.1B-intermediate-step-480k-1T 📑 🟢

10.3

34.37

30.89

52.97

25.0

39.55

57.3

0.53

Unknown

EverythingLM-13B-16K-GPTQ 📑 🔶

162.3

34.37

29.27

26.24

25.4

48.58

71.35

5.38

LlamaForCausalLM

stablelm-base-alpha-7b 📑 🟢

70

34.37

32.0

51.78

26.21

40.19

55.41

0.61

GPTNeoXForCausalLM

h2ogpt-gm-oasst1-en-2048-open-llama-7b-preview-300bt 📑 🔶

70

34.32

34.04

50.51

24.66

41.8

54.93

0.0

LlamaForCausalLM

xglm-4.5B 📑 🟢

50.8

34.31

31.48

57.95

25.43

35.84

54.93

0.23

XGLMForCausalLM

gpt-sw3-1.3b 📑 🟢

14.4

34.31

30.38

50.4

26.14

39.97

58.88

0.08

GPT2LMHeadModel

LLmRa-1.3B_V2 📑 🔶

13.2

34.21

30.46

53.03

26.06

36.46

59.27

0.0

OPTForCausalLM

dlite-v2-1_5b 📑 🔶

50

34.2

32.59

53.98

24.93

38.77

54.7

0.23

GPT2LMHeadModel

WizardCoder-Guanaco-15B-V1.1 📑 🔶

150

34.19

32.59

45.42

25.88

42.33

56.04

2.88

GPTBigCodeForCausalLM

starcoder-gpteacher-code-instruct 📑 🔶

0

34.15

32.68

47.6

28.63

40.41

55.56

0.0

GPTBigCodeForCausalLM

gpt2-xl_lima 📑 💬

15.6

34.12

31.14

51.28

25.43

38.74

57.22

0.91

GPT2LMHeadModel

Walter-Falcon-1B 📑 💬

13.1

34.07

31.06

54.92

24.58

38.47

55.41

0.0

FalconForCausalLM

TinyLlama-1.1B-2T-lr-2e-4-3ep-dolly-15k-instruct-v1 📑 🔶

11

34.04

30.55

53.7

26.07

35.85

58.09

0.0

LlamaForCausalLM

stablelm-tuned-alpha-7b 📑 🔶

70

34.04

31.91

53.59

24.41

40.37

53.12

0.83

GPTNeoXForCausalLM

TinyLlama-Remix 📑 🔶

11

34.0

31.14

49.5

27.34

40.53

55.41

0.08

LlamaForCausalLM

bloom-1b7 📑

17.2

33.98

30.63

47.6

27.48

41.31

56.04

0.83

BloomForCausalLM

pygmalion-2.7b 📑 🔶

27

33.98

32.76

54.13

23.28

37.17

56.51

0.0

GPTNeoForCausalLM

WizardCoder-Guanaco-15B-V1.0 📑 🔶

150

33.96

30.46

45.59

26.79

46.39

53.12

1.44

GPTBigCodeForCausalLM

gogpt-3b-bloom 📑 🔶

30

33.96

31.91

50.32

25.2

41.79

54.38

0.15

BloomForCausalLM

gpt-2-xl_camel-ai-physics 📑 💬

15.6

33.96

29.52

50.62

26.79

39.12

57.54

0.15

GPT2LMHeadModel

WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GPTQ 📑

355.8

33.78

28.41

26.05

24.71

49.54

68.67

5.31

LlamaForCausalLM

TinyLlama-1.1B-intermediate-step-240k-503b 📑 🟢

11

33.72

29.27

49.71

26.26

40.17

56.59

0.3

Unknown

gpt-neo-1.3B 📑 🟢

13.7

33.58

31.23

48.47

24.82

39.63

56.91

0.45

GPTNeoForCausalLM

Cerebras-GPT-2.7B-Alpaca-SP 📑 🔶

27

33.5

30.8

48.88

25.12

40.24

55.41

0.53

GPT2LMHeadModel

gpt-neo-1.3B-emailgen 📑 🔶

13

33.47

29.95

47.95

24.11

42.55

56.27

0.0

GPTNeoForCausalLM

TinyLlama-1.1bee 📑 🔶

11

33.38

30.55

51.8

24.25

39.01

54.46

0.23

LlamaForCausalLM

llama2-3b-distilled-layla-v1 📑

30

33.36

30.46

46.05

23.91

42.14

57.38

0.23

Unknown

dlite-v1-1_5b 📑 🔶

50

33.35

31.66

49.69

25.62

37.08

55.96

0.08

GPT2LMHeadModel

polyglot-ko-12.8b 📑 🟢

130.6

33.33

27.05

51.68

26.64

34.69

59.75

0.15

GPTNeoXForCausalLM

gpt2-xl-sft 📑 🔶

0

33.31

30.03

49.17

25.56

38.78

55.56

0.76

GPT2LMHeadModel

Quokka_2.7b 📑 🔶

27.9

33.26

31.06

47.72

24.8

40.14

55.49

0.38

GPT2LMHeadModel

Cerebras-GPT-2.7B 📑 🟢

27

33.25

29.1

49.29

25.17

41.37

54.14

0.45

?

SparseOPT-1.3B 📑

13.2

33.19

27.13

48.69

25.6

39.11

58.56

0.08

Unknown

gpt3-finnish-13B 📑 🟢

130

32.95

24.66

46.76

23.49

44.47

58.01

0.3

BloomModel

dlite-v2-774m 📑 🔶

7.7

32.86

30.12

47.68

25.37

40.0

53.99

0.0

GPT2LMHeadModel

pythia-1b-deduped 📑 🟢

10.8

32.78

29.1

49.65

24.27

38.94

53.59

1.14

GPTNeoXForCausalLM

RWKV-4-PilePlus-1B5-20230520-2942-486Gtokens-ctx4096 📑 🔶

14.1

32.68

30.63

52.63

25.04

34.96

52.8

0.0

Unknown

gpt-neo-1.3B-4bit-alpaca 📑 🔶

13

32.58

28.24

46.35

25.19

39.26

56.2

0.23

Unknown

Alpaca_spin_gpt2_e1_se0 📑 🔶

7.7

32.5

27.99

45.74

26.68

39.06

55.56

0.0

GPT2LMHeadModel

bloom-1b1 📑

10.6

32.47

28.33

42.78

26.7

41.8

55.01

0.23

BloomForCausalLM

bilingual-gpt-neox-4b-instruction-sft 📑 💬

38

32.46

28.07

47.5

23.12

43.76

52.33

0.0

GPTNeoXForCausalLM

Alpaca_spin_tuned_gpt2_large 📑 🔶

7.7

32.46

27.9

45.12

27.08

39.43

54.62

0.61

GPT2LMHeadModel

LaMini-GPT-774M 📑

7.7

32.43

27.65

43.81

26.3

40.26

56.59

0.0

GPT2LMHeadModel

codegen-6B-multi 📑 🟢

60

32.43

27.22

41.11

25.71

45.65

53.91

0.99

CodeGenForCausalLM

deepseek-coder-1.3b-instruct 📑 💬

13

32.4

28.58

39.87

28.47

44.02

52.41

1.06

LlamaForCausalLM

Alpaca_spin_gpt2_e0_se1 📑 🔶

7.7

32.4

27.99

45.84

26.44

38.88

55.17

0.08

GPT2LMHeadModel

Alpaca_refine_gpt2_e0_se1 📑 🔶

7.7

32.39

29.18

45.35

26.91

37.89

54.3

0.68

GPT2LMHeadModel

gpt2-large-conversational 📑 💬

7.7

32.33

26.96

44.98

26.33

39.6

56.04

0.08

GPT2LMHeadModel

FLOR-1.3B-xat 📑 💬

13.1

32.27

26.79

41.63

26.65

44.38

53.43

0.76

BloomForCausalLM

bilingual-gpt-neox-4b-8k 📑 🟢

39.5

32.23

28.58

43.94

25.38

47.48

47.99

0.0

GPTNeoXForCausalLM

Alpaca_refine_tuned_gpt2_large 📑 🔶

7.7

32.19

27.56

45.09

26.91

37.91

54.93

0.76

GPT2LMHeadModel

bilingual-gpt-neox-4b 📑 🟢

39.5

32.14

29.18

43.73

23.1

45.0

51.85

0.0

GPTNeoXForCausalLM

stablelm-tuned-alpha-3b 📑 🔶

30

32.14

27.82

44.06

23.08

42.33

55.01

0.53

GPTNeoXForCausalLM

Medical-ChatBot 📑 🔶

0

32.13

30.55

38.63

25.98

41.25

55.41

0.99

GPT2LMHeadModel

Alpaca_refine_gpt2_e1_se0 📑 🔶

7.7

32.06

27.3

45.39

26.51

37.28

55.88

0.0

GPT2LMHeadModel

Alpaca-tuned-gpt2 📑 🔶

7.7

32.02

26.54

44.79

27.22

37.65

55.09

0.83

GPT2LMHeadModel

Medical-ChatBot 📑 🔶

0

31.98

30.46

38.6

25.96

41.04

54.85

0.99

GPT2LMHeadModel

SSH_355M 📑 🔶

3.6

31.92

26.96

38.98

27.59

44.15

53.83

0.0

GPT2LMHeadModel

Medical-ChatBot 📑 🔶

0

31.87

30.46

38.55

25.91

41.02

54.22

1.06

GPT2LMHeadModel

polyglot-ko-3.8b-total 📑 🔶

38

31.87

25.34

39.69

29.16

43.67

53.35

0.0

GPTNeoXForCausalLM

TinyLlama-1.1B-step-50K-105b 📑 🟢

11

31.86

25.85

44.1

26.78

39.51

54.38

0.53

Unknown

deepseek-coder-1.3b-chat-and-function-calling 📑 🔶

13.5

31.82

26.28

39.27

26.92

43.37

51.7

3.41

LlamaForCausalLM

gpt2-large-lora-sft 📑 🔶

7.7

31.82

26.79

44.15

25.82

39.06

55.09

0.0

GPT2LMHeadModel

llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0 📑 💬

130

31.77

26.88

44.78

23.12

45.19

50.67

0.0

GPT2LMHeadModel

deepseek-coder-1.3b-chat 📑 🔶

13.5

31.74

25.85

39.59

26.36

43.92

51.7

3.03

LlamaForCausalLM

orca_mini_13B-GPTQ 📑

162.2

31.73

27.3

25.85

25.31

48.06

63.77

0.08

LlamaForCausalLM

llm-jp-13b-instruct-full-jaster-v1.0 📑 💬

130

31.63

27.22

44.7

23.12

44.69

50.04

0.0

GPT2LMHeadModel

deepseek-coder-1.3b-chat 📑 🔶

13.5

31.57

25.6

39.69

25.54

43.94

51.46

3.18

LlamaForCausalLM

pythia-410m 📑 🟢

5.1

31.55

26.19

40.85

27.25

41.22

53.12

0.68

GPTNeoXForCausalLM

dlite-v1-774m 📑 🔶

7.7

31.51

28.07

44.35

25.91

36.11

54.62

0.0

GPT2LMHeadModel

stablelm-base-alpha-3b 📑 🟢

30

31.5

26.45

42.24

25.43

40.5

53.91

0.45

GPTNeoXForCausalLM

Instruct_GPT 📑 🔶

0

31.46

28.24

39.33

26.84

39.72

54.3

0.3

GPT2LMHeadModel

xglm-1.7B 📑

17

31.42

25.85

45.68

25.1

37.21

53.91

0.76

XGLMForCausalLM

注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。

模型名称: wizard-mega-13B-GPTQ 📑
参数大小:

162.2

平均分:

35.18

模型名称: chronos-wizardlm-uc-scot-st-13B-GPTQ 📑
参数大小:

162.2

平均分:

35.15

模型名称: TinyWand-DPO 📑 💬
参数大小:

16.3

平均分:

35.13

模型名称: pythia-1.4b-deduped-sharegpt 📑 🔶
参数大小:

14.2

平均分:

35.11

模型名称: wangchanglm-7.5B-sft-enth 📑 🔶
参数大小:

75

平均分:

35.11

模型名称: metharme-1.3b 📑 🔶
参数大小:

15.2

平均分:

35.04

模型名称: falcon-1b-t-sft 📑 💬
参数大小:

13.1

平均分:

35.02

模型名称: LLmRa-1.3B 📑 🔶
参数大小:

13.1

平均分:

35.0

模型名称: pythia-1.4b-deduped 📑 🟢
参数大小:

14

平均分:

35.0

模型名称: TinyLlama-1.1B-intermediate-step-715k-1.5T-lr-5-1epch-airoboros3.1-1k-instruct-V1 📑
参数大小:

11

平均分:

34.98

模型名称: falcon_1b_stage3 📑 🔶
参数大小:

10

平均分:

34.95

模型名称: TinyLlama-1.1B-Chat-v0.6 📑
参数大小:

11

平均分:

34.94

模型名称: TinyLlama-1.1B-Remix-V.2 📑 🔶
参数大小:

11

平均分:

34.91

模型名称: Tiny-Vicuna-1B 📑 💬
参数大小:

11

平均分:

34.76

模型名称: megachat 📑 💬
参数大小:

0

平均分:

34.75

模型名称: lamini-neo-1.3b 📑 🔶
参数大小:

13.2

平均分:

34.73

模型名称: LaMini-GPT-1.5B 📑 🔶
参数大小:

15

平均分:

34.67

模型名称: WizardCoder-15B-V1.0 ✅ 📑 🔶
参数大小:

150

平均分:

34.64

模型名称: TinyWand-SFT 📑 💬
参数大小:

16.3

平均分:

34.61

模型名称: opt-1.3b 📑
参数大小:

13

平均分:

34.6

模型名称: TinyLlama-1.1B-Chat-v0.1 📑 🔶
参数大小:

11

平均分:

34.57

模型名称: TinyLlama-1.1B-intermediate-step-955k-token-2T 📑
参数大小:

11

平均分:

34.56

模型名称: gpt-sw3-1.3b-instruct 📑 💬
参数大小:

14.4

平均分:

34.54

模型名称: TinyLlama-1.1B-step-2T-lr-5-5ep-oasst1-top1-instruct-V1 📑
参数大小:

11

平均分:

34.53

模型名称: tinyllama-1.1b-chat-v0.3_platypus 📑 💬
参数大小:

11

平均分:

34.5

模型名称: pythia-1.3b 📑 🟢
参数大小:

13.1

平均分:

34.46

模型名称: PULI-GPTrio 📑 🟢
参数大小:

0

平均分:

34.42

模型名称: TinyLlama-1.1B-intermediate-step-480k-1T 📑 🟢
参数大小:

10.3

平均分:

34.37

模型名称: EverythingLM-13B-16K-GPTQ 📑 🔶
参数大小:

162.3

平均分:

34.37

模型名称: stablelm-base-alpha-7b 📑 🟢
参数大小:

70

平均分:

34.37

模型名称: h2ogpt-gm-oasst1-en-2048-open-llama-7b-preview-300bt 📑 🔶
参数大小:

70

平均分:

34.32

模型名称: xglm-4.5B 📑 🟢
参数大小:

50.8

平均分:

34.31

模型名称: gpt-sw3-1.3b 📑 🟢
参数大小:

14.4

平均分:

34.31

模型名称: LLmRa-1.3B_V2 📑 🔶
参数大小:

13.2

平均分:

34.21

模型名称: dlite-v2-1_5b 📑 🔶
参数大小:

50

平均分:

34.2

模型名称: WizardCoder-Guanaco-15B-V1.1 📑 🔶
参数大小:

150

平均分:

34.19

模型名称: starcoder-gpteacher-code-instruct 📑 🔶
参数大小:

0

平均分:

34.15

模型名称: gpt2-xl_lima 📑 💬
参数大小:

15.6

平均分:

34.12

模型名称: Walter-Falcon-1B 📑 💬
参数大小:

13.1

平均分:

34.07

模型名称: TinyLlama-1.1B-2T-lr-2e-4-3ep-dolly-15k-instruct-v1 📑 🔶
参数大小:

11

平均分:

34.04

模型名称: stablelm-tuned-alpha-7b 📑 🔶
参数大小:

70

平均分:

34.04

模型名称: TinyLlama-Remix 📑 🔶
参数大小:

11

平均分:

34.0

模型名称: bloom-1b7 📑
参数大小:

17.2

平均分:

33.98

模型名称: pygmalion-2.7b 📑 🔶
参数大小:

27

平均分:

33.98

模型名称: WizardCoder-Guanaco-15B-V1.0 📑 🔶
参数大小:

150

平均分:

33.96

模型名称: gogpt-3b-bloom 📑 🔶
参数大小:

30

平均分:

33.96

模型名称: gpt-2-xl_camel-ai-physics 📑 💬
参数大小:

15.6

平均分:

33.96

模型名称: WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GPTQ 📑
参数大小:

355.8

平均分:

33.78

模型名称: TinyLlama-1.1B-intermediate-step-240k-503b 📑 🟢
参数大小:

11

平均分:

33.72

模型名称: gpt-neo-1.3B 📑 🟢
参数大小:

13.7

平均分:

33.58

模型名称: Cerebras-GPT-2.7B-Alpaca-SP 📑 🔶
参数大小:

27

平均分:

33.5

模型名称: gpt-neo-1.3B-emailgen 📑 🔶
参数大小:

13

平均分:

33.47

模型名称: TinyLlama-1.1bee 📑 🔶
参数大小:

11

平均分:

33.38

模型名称: llama2-3b-distilled-layla-v1 📑
参数大小:

30

平均分:

33.36

模型名称: dlite-v1-1_5b 📑 🔶
参数大小:

50

平均分:

33.35

模型名称: polyglot-ko-12.8b 📑 🟢
参数大小:

130.6

平均分:

33.33

模型名称: gpt2-xl-sft 📑 🔶
参数大小:

0

平均分:

33.31

模型名称: Quokka_2.7b 📑 🔶
参数大小:

27.9

平均分:

33.26

模型名称: Cerebras-GPT-2.7B 📑 🟢
参数大小:

27

平均分:

33.25

模型名称: SparseOPT-1.3B 📑
参数大小:

13.2

平均分:

33.19

模型名称: gpt3-finnish-13B 📑 🟢
参数大小:

130

平均分:

32.95

模型名称: dlite-v2-774m 📑 🔶
参数大小:

7.7

平均分:

32.86

模型名称: pythia-1b-deduped 📑 🟢
参数大小:

10.8

平均分:

32.78

模型名称: RWKV-4-PilePlus-1B5-20230520-2942-486Gtokens-ctx4096 📑 🔶
参数大小:

14.1

平均分:

32.68

模型名称: gpt-neo-1.3B-4bit-alpaca 📑 🔶
参数大小:

13

平均分:

32.58

模型名称: Alpaca_spin_gpt2_e1_se0 📑 🔶
参数大小:

7.7

平均分:

32.5

模型名称: bloom-1b1 📑
参数大小:

10.6

平均分:

32.47

模型名称: bilingual-gpt-neox-4b-instruction-sft 📑 💬
参数大小:

38

平均分:

32.46

模型名称: Alpaca_spin_tuned_gpt2_large 📑 🔶
参数大小:

7.7

平均分:

32.46

模型名称: LaMini-GPT-774M 📑
参数大小:

7.7

平均分:

32.43

模型名称: codegen-6B-multi 📑 🟢
参数大小:

60

平均分:

32.43

模型名称: deepseek-coder-1.3b-instruct 📑 💬
参数大小:

13

平均分:

32.4

模型名称: Alpaca_spin_gpt2_e0_se1 📑 🔶
参数大小:

7.7

平均分:

32.4

模型名称: Alpaca_refine_gpt2_e0_se1 📑 🔶
参数大小:

7.7

平均分:

32.39

模型名称: gpt2-large-conversational 📑 💬
参数大小:

7.7

平均分:

32.33

模型名称: FLOR-1.3B-xat 📑 💬
参数大小:

13.1

平均分:

32.27

模型名称: bilingual-gpt-neox-4b-8k 📑 🟢
参数大小:

39.5

平均分:

32.23

模型名称: Alpaca_refine_tuned_gpt2_large 📑 🔶
参数大小:

7.7

平均分:

32.19

模型名称: bilingual-gpt-neox-4b 📑 🟢
参数大小:

39.5

平均分:

32.14

模型名称: stablelm-tuned-alpha-3b 📑 🔶
参数大小:

30

平均分:

32.14

模型名称: Medical-ChatBot 📑 🔶
参数大小:

0

平均分:

32.13

模型名称: Alpaca_refine_gpt2_e1_se0 📑 🔶
参数大小:

7.7

平均分:

32.06

模型名称: Alpaca-tuned-gpt2 📑 🔶
参数大小:

7.7

平均分:

32.02

模型名称: Medical-ChatBot 📑 🔶
参数大小:

0

平均分:

31.98

模型名称: SSH_355M 📑 🔶
参数大小:

3.6

平均分:

31.92

模型名称: Medical-ChatBot 📑 🔶
参数大小:

0

平均分:

31.87

模型名称: polyglot-ko-3.8b-total 📑 🔶
参数大小:

38

平均分:

31.87

模型名称: TinyLlama-1.1B-step-50K-105b 📑 🟢
参数大小:

11

平均分:

31.86

模型名称: deepseek-coder-1.3b-chat-and-function-calling 📑 🔶
参数大小:

13.5

平均分:

31.82

模型名称: gpt2-large-lora-sft 📑 🔶
参数大小:

7.7

平均分:

31.82

模型名称: llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0 📑 💬
参数大小:

130

平均分:

31.77

模型名称: deepseek-coder-1.3b-chat 📑 🔶
参数大小:

13.5

平均分:

31.74

模型名称: orca_mini_13B-GPTQ 📑
参数大小:

162.2

平均分:

31.73

模型名称: llm-jp-13b-instruct-full-jaster-v1.0 📑 💬
参数大小:

130

平均分:

31.63

模型名称: deepseek-coder-1.3b-chat 📑 🔶
参数大小:

13.5

平均分:

31.57

模型名称: pythia-410m 📑 🟢
参数大小:

5.1

平均分:

31.55

模型名称: dlite-v1-774m 📑 🔶
参数大小:

7.7

平均分:

31.51

模型名称: stablelm-base-alpha-3b 📑 🟢
参数大小:

30

平均分:

31.5

模型名称: Instruct_GPT 📑 🔶
参数大小:

0

平均分:

31.46

模型名称: xglm-1.7B 📑
参数大小:

17

平均分:

31.42