🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
Qwen-72B ✅ 📑 | 🟢 |
722.9 |
73.6 |
65.19 |
85.94 |
77.37 |
60.19 |
82.48 |
70.43 |
QWenLMHeadModel |
Yi-34B-Llama 📑 | 🟢 |
343.9 |
70.95 |
64.59 |
85.63 |
76.31 |
55.6 |
82.79 |
60.8 |
LlamaForCausalLM |
Yi-34B-200K ✅ 📑 | 🟢 |
343.9 |
70.81 |
65.36 |
85.58 |
76.06 |
53.64 |
82.56 |
61.64 |
LlamaForCausalLM |
internlm2-20b-llama 📑 | 🟢 |
198.6 |
70.66 |
64.59 |
83.12 |
67.27 |
54.13 |
84.21 |
70.66 |
LlamaForCausalLM |
internlm2-20b-llama 📑 | 🟢 |
198.6 |
70.61 |
64.68 |
83.16 |
67.17 |
54.17 |
84.29 |
70.2 |
L;l;a;m;a;F;o;r;C;a;u;s;a;l;L;M |
internlm2-20b 📑 | 🟢 |
200 |
69.75 |
62.97 |
83.21 |
67.58 |
51.27 |
85.56 |
67.93 |
Unknown |
Qwen-72B-Llama 📑 | 🟢 |
722.9 |
69.53 |
64.85 |
83.27 |
73.66 |
57.6 |
81.53 |
56.25 |
LlamaForCausalLM |
Yi-34B ✅ 📑 | 🟢 |
343.9 |
69.42 |
64.59 |
85.69 |
76.35 |
56.23 |
83.03 |
50.64 |
LlamaForCausalLM |
deepseek-llm-67b-base ✅ 📑 | 🟢 |
670 |
69.38 |
65.44 |
87.1 |
71.78 |
51.08 |
84.14 |
56.71 |
LlamaForCausalLM |
Mixtral-8x7B-v0.1 ✅ 📑 | 🟢 |
467 |
68.42 |
66.04 |
86.49 |
71.82 |
46.78 |
81.93 |
57.47 |
MixtralForCausalLM |
falcon-180B 📑 | 🟢 |
1795.2 |
67.85 |
69.45 |
88.86 |
70.5 |
45.47 |
86.9 |
45.94 |
FalconForCausalLM |
internlm2-7b-llama 📑 | 🟢 |
77.4 |
66.94 |
60.49 |
80.99 |
63.16 |
54.25 |
79.87 |
62.85 |
L;l;a;m;a;F;o;r;C;a;u;s;a;l;L;M |
Chinese-Mixtral-8x7B 📑 | 🟢 |
469.1 |
66.69 |
63.57 |
85.98 |
70.95 |
45.86 |
82.08 |
51.71 |
MixtralForCausalLM |
internlm2-7b 📑 | 🟢 |
70 |
66.68 |
58.02 |
81.24 |
65.24 |
48.73 |
83.82 |
63.0 |
Unknown |
SOLAR-10.7B-v1.0 📑 | 🟢 |
107.3 |
66.04 |
61.95 |
84.6 |
65.48 |
45.04 |
83.66 |
55.5 |
LlamaForCausalLM |
falcon-180B 📑 | 🟢 |
1795.2 |
65.46 |
69.2 |
88.89 |
69.59 |
45.16 |
86.74 |
33.21 |
FalconForCausalLM |
internlm-20b-llama 📑 | 🟢 |
200 |
65.09 |
61.35 |
82.08 |
61.59 |
57.71 |
76.72 |
51.1 |
LlamaForCausalLM |
KoSOLAR-10.7B-v0.3 📑 | 🟢 |
108 |
64.76 |
62.8 |
83.73 |
64.51 |
44.57 |
82.48 |
50.49 |
LlamaForCausalLM |
KoSOLAR-10.7B-v0.2 📑 | 🟢 |
107 |
64.2 |
61.35 |
82.63 |
64.85 |
47.94 |
80.74 |
47.69 |
LlamaForCausalLM |
tigerbot-70b-base 📑 | 🟢 |
689.5 |
63.71 |
62.46 |
83.61 |
65.49 |
52.76 |
80.19 |
37.76 |
Unknown |
Qwen-14B-Llamafied 📑 | 🟢 |
140 |
63.09 |
55.2 |
82.31 |
66.11 |
45.6 |
76.56 |
52.77 |
LlamaForCausalLM |
llama-65b 📑 | 🟢 |
652.9 |
62.79 |
63.48 |
86.09 |
63.93 |
43.43 |
82.56 |
37.23 |
LlamaForCausalLM |
internlm2-base-20b-llama 📑 | 🟢 |
198.6 |
62.69 |
63.05 |
82.11 |
63.97 |
43.97 |
78.22 |
44.81 |
LlamaForCausalLM |
internlm2-base-20b-llama 📑 | 🟢 |
198.6 |
62.69 |
62.97 |
82.15 |
63.78 |
44.11 |
78.22 |
44.88 |
LlamaForCausalLM |
DeciLM-7B ✅ 📑 | 🟢 |
70.4 |
61.55 |
59.39 |
82.51 |
59.76 |
40.33 |
79.95 |
47.38 |
DeciLMForCausalLM |
phi-2 ✅ 📑 | 🟢 |
27.8 |
61.33 |
61.09 |
75.11 |
58.11 |
44.47 |
74.35 |
54.81 |
PhiForCausalLM |
Mistral-7B-v0.1 ✅ 📑 | 🟢 |
72.4 |
60.97 |
59.98 |
83.31 |
64.16 |
42.15 |
78.37 |
37.83 |
MistralForCausalLM |
Mistral-7B-v0.1 ✅ 📑 | 🟢 |
72.4 |
60.97 |
59.98 |
83.31 |
64.16 |
42.15 |
78.37 |
37.83 |
MistralForCausalLM |
mistral-sft-v3 📑 | 🟢 |
72.4 |
60.93 |
61.35 |
82.23 |
63.4 |
48.49 |
77.66 |
32.45 |
MistralForCausalLM |
Nanbeige-16B-Base-Llama 📑 | 🟢 |
158.3 |
60.7 |
56.48 |
78.97 |
63.34 |
42.6 |
75.77 |
47.01 |
LlamaForCausalLM |
CodeLlama-70b-Instruct-hf 📑 | 🟢 |
689.8 |
59.98 |
55.03 |
77.24 |
56.4 |
50.44 |
74.51 |
46.25 |
LlamaForCausalLM |
internlm-20b ✅ 📑 | 🟢 |
200 |
59.55 |
60.49 |
82.13 |
61.85 |
52.61 |
76.72 |
23.5 |
InternLMForCausalLM |
Qwen-7B ✅ 📑 | 🟢 |
77.2 |
59.19 |
51.37 |
78.47 |
59.84 |
47.79 |
72.69 |
44.96 |
QWenLMHeadModel |
CodeLlama-70b-hf ✅ 📑 | 🟢 |
689.8 |
58.93 |
56.74 |
78.21 |
59.67 |
39.79 |
75.22 |
43.97 |
LlamaForCausalLM |
CodeLlama-70b-hf ✅ 📑 | 🟢 |
689.8 |
58.93 |
56.74 |
78.21 |
59.67 |
39.79 |
75.22 |
43.97 |
LlamaForCausalLM |
CodeLlama-70b-hf ✅ 📑 | 🟢 |
689.8 |
58.93 |
56.74 |
78.21 |
59.67 |
39.79 |
75.22 |
43.97 |
LlamaForCausalLM |
chinese-mixtral 📑 | 🟢 |
467 |
58.57 |
67.49 |
85.25 |
70.31 |
46.75 |
81.61 |
0.0 |
MixtralForCausalLM |
falcon-40b ✅ 📑 | 🟢 |
400 |
58.07 |
61.86 |
85.28 |
56.89 |
41.65 |
81.29 |
21.46 |
FalconForCausalLM |
typhoon-7b 📑 | 🟢 |
70 |
58.05 |
58.53 |
81.55 |
59.54 |
40.52 |
76.56 |
31.61 |
MistralForCausalLM |
CodeLlama-70b-Python-hf 📑 | 🟢 |
689.8 |
58.0 |
55.12 |
78.48 |
56.17 |
41.78 |
73.01 |
43.44 |
LlamaForCausalLM |
CantoneseLLM-6B-preview202402 📑 | 🟢 |
60.6 |
56.93 |
55.63 |
75.8 |
63.07 |
42.26 |
74.11 |
30.71 |
LlamaForCausalLM |
Yi-6B-200K ✅ 📑 | 🟢 |
60.6 |
56.76 |
53.75 |
75.57 |
64.65 |
41.56 |
73.64 |
31.39 |
LlamaForCausalLM |
Yi-6B-200K ✅ 📑 | 🟢 |
60.6 |
56.69 |
53.58 |
75.58 |
64.65 |
41.74 |
74.27 |
30.33 |
LlamaForCausalLM |
CodeLlama-34b-hf 📑 | 🟢 |
337.4 |
55.28 |
54.18 |
75.82 |
54.92 |
39.11 |
73.32 |
34.34 |
LlamaForCausalLM |
Aquila2-34B ✅ 📑 | 🟢 |
340 |
54.5 |
52.65 |
81.99 |
76.02 |
40.8 |
75.06 |
0.45 |
LlamaForCausalLM |
Yi-6B ✅ 📑 | 🟢 |
60.6 |
54.08 |
55.55 |
76.57 |
64.11 |
41.96 |
74.19 |
12.13 |
LlamaForCausalLM |
Yi-6B ✅ 📑 | 🟢 |
60.6 |
54.02 |
55.55 |
76.42 |
63.85 |
41.86 |
73.8 |
12.66 |
LlamaForCausalLM |
internlm2-base-7b-llama 📑 | 🟢 |
77.4 |
53.62 |
54.35 |
79.47 |
54.05 |
43.23 |
71.43 |
19.18 |
LlamaForCausalLM |
tigerbot-13b-base 📑 | 🟢 |
130 |
53.42 |
53.84 |
77.05 |
53.57 |
44.06 |
74.98 |
17.06 |
Unknown |
shisa-base-7b-v1 📑 | 🟢 |
79.6 |
51.64 |
52.3 |
77.63 |
23.12 |
42.4 |
78.53 |
35.86 |
MistralForCausalLM |
llama-13b 📑 | 🟢 |
130.2 |
51.33 |
56.14 |
80.92 |
47.61 |
39.48 |
76.24 |
7.58 |
LlamaForCausalLM |
FuseLLM-7B 📑 | 🟢 |
70 |
51.07 |
53.24 |
78.72 |
47.93 |
38.17 |
74.03 |
14.33 |
LlamaForCausalLM |
deepseek-moe-16b-base ✅ 📑 | 🟢 |
163.8 |
51.07 |
53.24 |
79.77 |
46.31 |
36.08 |
73.72 |
17.29 |
Unknown |
Llama-2-7B-GPTQ 📑 | 🟢 |
90.5 |
48.48 |
52.05 |
77.59 |
43.99 |
39.32 |
72.93 |
5.0 |
LlamaForCausalLM |
yayi2-30b-llama 📑 | 🟢 |
304 |
48.46 |
35.67 |
53.37 |
70.6 |
49.08 |
63.14 |
18.88 |
LlamaForCausalLM |
openllama-7b-icl 📑 | 🟢 |
70 |
47.93 |
47.95 |
77.04 |
44.37 |
37.06 |
70.17 |
10.99 |
LlamaForCausalLM |
phi-1_5 ✅ 📑 | 🟢 |
0 |
47.69 |
52.9 |
63.79 |
43.89 |
40.89 |
72.22 |
12.43 |
PhiForCausalLM |
phi-1_5 ✅ 📑 | 🟢 |
0 |
47.69 |
52.9 |
63.79 |
43.89 |
40.89 |
72.22 |
12.43 |
PhiForCausalLM |
open_llama_13b ✅ 📑 | 🟢 |
130 |
47.26 |
51.19 |
75.23 |
43.75 |
38.08 |
72.06 |
3.26 |
LlamaForCausalLM |
openllama-7b-base 📑 | 🟢 |
70 |
47.09 |
46.16 |
76.4 |
42.82 |
36.65 |
70.88 |
9.63 |
LlamaForCausalLM |
stablelm-3b-4e1t 📑 | 🟢 |
28 |
46.58 |
46.59 |
75.94 |
45.23 |
37.2 |
71.19 |
3.34 |
StableLMEpochForCausalLM |
stablelm-base-alpha-7b-v2 📑 | 🟢 |
68.9 |
46.18 |
47.35 |
77.08 |
45.1 |
36.46 |
68.51 |
2.58 |
StableLMAlphaForCausalLM |
bloom ✅ 📑 | 🟢 |
1762.5 |
46.07 |
50.43 |
76.41 |
30.85 |
39.76 |
72.06 |
6.9 |
BloomForCausalLM |
llama-base-7b 📑 | 🟢 |
66.1 |
45.62 |
50.94 |
77.8 |
35.67 |
34.34 |
71.43 |
3.56 |
Unknown |
stablelm-2-1_6b ✅ 📑 | 🟢 |
16.4 |
45.25 |
43.34 |
70.45 |
38.95 |
36.78 |
64.56 |
17.44 |
Unknown |
Qwen-1_8B-Llamafied 📑 | 🟢 |
18.4 |
44.75 |
37.71 |
58.87 |
46.37 |
39.41 |
61.72 |
24.41 |
LlamaForCausalLM |
ThetaWave-14B-v0.1 📑 | 🟢 |
142.2 |
44.54 |
42.83 |
47.09 |
61.45 |
50.41 |
65.43 |
0.0 |
MistralForCausalLM |
open_llama_7b_v2 📑 | 🟢 |
70 |
44.26 |
43.69 |
72.2 |
41.29 |
35.54 |
69.38 |
3.49 |
LlamaForCausalLM |
falcon-7b ✅ 📑 | 🟢 |
70 |
44.17 |
47.87 |
78.13 |
27.79 |
34.26 |
72.38 |
4.62 |
FalconForCausalLM |
gpt-sw3-40b 📑 | 🟢 |
399.3 |
43.42 |
43.0 |
72.37 |
34.97 |
37.52 |
67.96 |
4.7 |
GPT2LMHeadModel |
CodeLlama-13b-hf 📑 | 🟢 |
130.2 |
43.35 |
40.87 |
63.35 |
32.81 |
43.79 |
67.17 |
12.13 |
LlamaForCausalLM |
quan-1.8b-base 📑 | 🟢 |
18 |
43.35 |
36.95 |
58.46 |
45.44 |
41.6 |
57.93 |
19.71 |
LlamaForCausalLM |
opt-66b 📑 | 🟢 |
660 |
42.78 |
46.33 |
76.25 |
26.99 |
35.43 |
70.01 |
1.67 |
OPTForCausalLM |
codegen-16B-nl 📑 | 🟢 |
160 |
42.59 |
46.76 |
71.87 |
32.35 |
33.95 |
67.96 |
2.65 |
CodeGenForCausalLM |
open_llama_7b 📑 | 🟢 |
70 |
42.31 |
47.01 |
71.98 |
30.49 |
34.85 |
67.96 |
1.59 |
LlamaForCausalLM |
palmyra-large 📑 | 🟢 |
0 |
42.09 |
44.97 |
71.85 |
28.54 |
35.93 |
67.88 |
3.41 |
GPT2LMHeadModel |
opt-30b 📑 | 🟢 |
300 |
42.0 |
43.26 |
74.07 |
26.66 |
35.16 |
70.64 |
2.2 |
OPTForCausalLM |
gpt-neox-20b ✅ 📑 | 🟢 |
207.4 |
41.69 |
45.73 |
73.45 |
25.0 |
31.61 |
68.9 |
5.46 |
GPTNeoXForCausalLM |
RedPajama-INCITE-7B-Base 📑 | 🟢 |
70 |
41.49 |
46.25 |
71.63 |
27.68 |
33.03 |
67.32 |
3.03 |
GPTNeoXForCausalLM |
MiniMA-3B 📑 | 🟢 |
30.2 |
41.44 |
43.43 |
68.06 |
28.69 |
39.76 |
65.98 |
2.73 |
LlamaForCausalLM |
nucleus-22B-token-500B 📑 | 🟢 |
218.3 |
41.33 |
40.7 |
69.39 |
30.11 |
39.16 |
67.64 |
0.99 |
LlamaForCausalLM |
RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 | 🟢 |
66.5 |
41.25 |
46.25 |
71.63 |
27.68 |
33.03 |
67.32 |
1.59 |
Unknown |
Amber 📑 | 🟢 |
0 |
40.97 |
40.96 |
73.79 |
26.84 |
33.56 |
67.88 |
2.81 |
LlamaForCausalLM |
gpt-sw3-20b 📑 | 🟢 |
209.2 |
40.71 |
41.81 |
68.75 |
28.47 |
37.1 |
67.17 |
0.99 |
GPT2LMHeadModel |
ThetaWave-28B-v0.1 📑 | 🟢 |
281.8 |
40.4 |
36.6 |
35.54 |
54.5 |
49.86 |
65.9 |
0.0 |
MistralForCausalLM |
open_llama_3b_v2 📑 | 🟢 |
30 |
40.28 |
40.27 |
71.6 |
27.12 |
34.78 |
67.01 |
0.91 |
LlamaForCausalLM |
gpt-j-6b ✅ 📑 | 🟢 |
60 |
40.1 |
41.38 |
67.54 |
26.78 |
35.96 |
65.98 |
2.96 |
GPTJForCausalLM |
opt-13b 📑 | 🟢 |
130 |
40.06 |
39.93 |
71.2 |
24.9 |
34.1 |
68.51 |
1.74 |
OPTForCausalLM |
codegen-6B-nl 📑 | 🟢 |
60 |
40.0 |
42.32 |
68.59 |
25.93 |
34.47 |
66.46 |
2.2 |
CodeGenForCausalLM |
CodeLlama-7b-hf 📑 | 🟢 |
67.4 |
39.81 |
39.93 |
60.8 |
31.12 |
37.82 |
64.01 |
5.16 |
LlamaForCausalLM |
pythia-12b-deduped 📑 | 🟢 |
120 |
39.7 |
41.38 |
70.26 |
25.63 |
33.0 |
66.46 |
1.44 |
GPTNeoXForCausalLM |
gpt-sw3-6.7b-v2 📑 | 🟢 |
71.1 |
39.49 |
39.42 |
66.39 |
30.09 |
35.6 |
64.25 |
1.21 |
GPT2LMHeadModel |
pythia-6.9b-deduped 📑 | 🟢 |
69 |
39.3 |
41.3 |
67.05 |
26.48 |
35.19 |
64.09 |
1.67 |
GPTNeoXForCausalLM |
bloom-7b1 📑 | 🟢 |
70.7 |
39.18 |
41.13 |
62.0 |
26.25 |
38.9 |
65.43 |
1.36 |
BloomForCausalLM |
h2o-danube-1.8b-base 📑 | 🟢 |
18.3 |
39.12 |
39.42 |
69.58 |
25.94 |
33.86 |
64.48 |
1.44 |
MistralForCausalLM |
opt-6.7b 📑 | 🟢 |
67 |
39.08 |
39.16 |
68.66 |
24.57 |
35.12 |
65.98 |
0.99 |
OPTForCausalLM |
pythia-12b ✅ 📑 | 🟢 |
120 |
38.82 |
39.59 |
68.82 |
26.76 |
31.85 |
64.17 |
1.74 |
GPTNeoXForCausalLM |
weblab-10b 📑 | 🟢 |
100 |
38.59 |
39.51 |
65.76 |
26.29 |
36.02 |
62.51 |
1.44 |
GPTNeoXForCausalLM |
RedPajama-INCITE-Base-3B-v1 📑 | 🟢 |
30 |
38.54 |
40.19 |
64.77 |
27.03 |
33.23 |
64.72 |
1.29 |
GPTNeoXForCausalLM |
open_llama_3b 📑 | 🟢 |
30 |
38.26 |
39.85 |
62.65 |
26.94 |
34.97 |
64.72 |
0.45 |
LlamaForCausalLM |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | Qwen-72B ✅ 📑 🟢 |
参数大小: |
722.9 |
平均分: |
73.6 |
模型名称: | Yi-34B-Llama 📑 🟢 |
参数大小: |
343.9 |
平均分: |
70.95 |
模型名称: | Yi-34B-200K ✅ 📑 🟢 |
参数大小: |
343.9 |
平均分: |
70.81 |
模型名称: | internlm2-20b-llama 📑 🟢 |
参数大小: |
198.6 |
平均分: |
70.66 |
模型名称: | internlm2-20b-llama 📑 🟢 |
参数大小: |
198.6 |
平均分: |
70.61 |
模型名称: | internlm2-20b 📑 🟢 |
参数大小: |
200 |
平均分: |
69.75 |
模型名称: | Qwen-72B-Llama 📑 🟢 |
参数大小: |
722.9 |
平均分: |
69.53 |
模型名称: | Yi-34B ✅ 📑 🟢 |
参数大小: |
343.9 |
平均分: |
69.42 |
模型名称: | deepseek-llm-67b-base ✅ 📑 🟢 |
参数大小: |
670 |
平均分: |
69.38 |
模型名称: | Mixtral-8x7B-v0.1 ✅ 📑 🟢 |
参数大小: |
467 |
平均分: |
68.42 |
模型名称: | falcon-180B 📑 🟢 |
参数大小: |
1795.2 |
平均分: |
67.85 |
模型名称: | internlm2-7b-llama 📑 🟢 |
参数大小: |
77.4 |
平均分: |
66.94 |
模型名称: | Chinese-Mixtral-8x7B 📑 🟢 |
参数大小: |
469.1 |
平均分: |
66.69 |
模型名称: | internlm2-7b 📑 🟢 |
参数大小: |
70 |
平均分: |
66.68 |
模型名称: | SOLAR-10.7B-v1.0 📑 🟢 |
参数大小: |
107.3 |
平均分: |
66.04 |
模型名称: | falcon-180B 📑 🟢 |
参数大小: |
1795.2 |
平均分: |
65.46 |
模型名称: | internlm-20b-llama 📑 🟢 |
参数大小: |
200 |
平均分: |
65.09 |
模型名称: | KoSOLAR-10.7B-v0.3 📑 🟢 |
参数大小: |
108 |
平均分: |
64.76 |
模型名称: | KoSOLAR-10.7B-v0.2 📑 🟢 |
参数大小: |
107 |
平均分: |
64.2 |
模型名称: | tigerbot-70b-base 📑 🟢 |
参数大小: |
689.5 |
平均分: |
63.71 |
模型名称: | Qwen-14B-Llamafied 📑 🟢 |
参数大小: |
140 |
平均分: |
63.09 |
模型名称: | llama-65b 📑 🟢 |
参数大小: |
652.9 |
平均分: |
62.79 |
模型名称: | internlm2-base-20b-llama 📑 🟢 |
参数大小: |
198.6 |
平均分: |
62.69 |
模型名称: | internlm2-base-20b-llama 📑 🟢 |
参数大小: |
198.6 |
平均分: |
62.69 |
模型名称: | DeciLM-7B ✅ 📑 🟢 |
参数大小: |
70.4 |
平均分: |
61.55 |
模型名称: | phi-2 ✅ 📑 🟢 |
参数大小: |
27.8 |
平均分: |
61.33 |
模型名称: | Mistral-7B-v0.1 ✅ 📑 🟢 |
参数大小: |
72.4 |
平均分: |
60.97 |
模型名称: | Mistral-7B-v0.1 ✅ 📑 🟢 |
参数大小: |
72.4 |
平均分: |
60.97 |
模型名称: | mistral-sft-v3 📑 🟢 |
参数大小: |
72.4 |
平均分: |
60.93 |
模型名称: | Nanbeige-16B-Base-Llama 📑 🟢 |
参数大小: |
158.3 |
平均分: |
60.7 |
模型名称: | CodeLlama-70b-Instruct-hf 📑 🟢 |
参数大小: |
689.8 |
平均分: |
59.98 |
模型名称: | internlm-20b ✅ 📑 🟢 |
参数大小: |
200 |
平均分: |
59.55 |
模型名称: | Qwen-7B ✅ 📑 🟢 |
参数大小: |
77.2 |
平均分: |
59.19 |
模型名称: | CodeLlama-70b-hf ✅ 📑 🟢 |
参数大小: |
689.8 |
平均分: |
58.93 |
模型名称: | CodeLlama-70b-hf ✅ 📑 🟢 |
参数大小: |
689.8 |
平均分: |
58.93 |
模型名称: | CodeLlama-70b-hf ✅ 📑 🟢 |
参数大小: |
689.8 |
平均分: |
58.93 |
模型名称: | chinese-mixtral 📑 🟢 |
参数大小: |
467 |
平均分: |
58.57 |
模型名称: | falcon-40b ✅ 📑 🟢 |
参数大小: |
400 |
平均分: |
58.07 |
模型名称: | typhoon-7b 📑 🟢 |
参数大小: |
70 |
平均分: |
58.05 |
模型名称: | CodeLlama-70b-Python-hf 📑 🟢 |
参数大小: |
689.8 |
平均分: |
58.0 |
模型名称: | CantoneseLLM-6B-preview202402 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.93 |
模型名称: | Yi-6B-200K ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.76 |
模型名称: | Yi-6B-200K ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.69 |
模型名称: | CodeLlama-34b-hf 📑 🟢 |
参数大小: |
337.4 |
平均分: |
55.28 |
模型名称: | Aquila2-34B ✅ 📑 🟢 |
参数大小: |
340 |
平均分: |
54.5 |
模型名称: | Yi-6B ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
54.08 |
模型名称: | Yi-6B ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
54.02 |
模型名称: | internlm2-base-7b-llama 📑 🟢 |
参数大小: |
77.4 |
平均分: |
53.62 |
模型名称: | tigerbot-13b-base 📑 🟢 |
参数大小: |
130 |
平均分: |
53.42 |
模型名称: | shisa-base-7b-v1 📑 🟢 |
参数大小: |
79.6 |
平均分: |
51.64 |
模型名称: | llama-13b 📑 🟢 |
参数大小: |
130.2 |
平均分: |
51.33 |
模型名称: | FuseLLM-7B 📑 🟢 |
参数大小: |
70 |
平均分: |
51.07 |
模型名称: | deepseek-moe-16b-base ✅ 📑 🟢 |
参数大小: |
163.8 |
平均分: |
51.07 |
模型名称: | Llama-2-7B-GPTQ 📑 🟢 |
参数大小: |
90.5 |
平均分: |
48.48 |
模型名称: | yayi2-30b-llama 📑 🟢 |
参数大小: |
304 |
平均分: |
48.46 |
模型名称: | openllama-7b-icl 📑 🟢 |
参数大小: |
70 |
平均分: |
47.93 |
模型名称: | phi-1_5 ✅ 📑 🟢 |
参数大小: |
0 |
平均分: |
47.69 |
模型名称: | phi-1_5 ✅ 📑 🟢 |
参数大小: |
0 |
平均分: |
47.69 |
模型名称: | open_llama_13b ✅ 📑 🟢 |
参数大小: |
130 |
平均分: |
47.26 |
模型名称: | openllama-7b-base 📑 🟢 |
参数大小: |
70 |
平均分: |
47.09 |
模型名称: | stablelm-3b-4e1t 📑 🟢 |
参数大小: |
28 |
平均分: |
46.58 |
模型名称: | stablelm-base-alpha-7b-v2 📑 🟢 |
参数大小: |
68.9 |
平均分: |
46.18 |
模型名称: | bloom ✅ 📑 🟢 |
参数大小: |
1762.5 |
平均分: |
46.07 |
模型名称: | llama-base-7b 📑 🟢 |
参数大小: |
66.1 |
平均分: |
45.62 |
模型名称: | stablelm-2-1_6b ✅ 📑 🟢 |
参数大小: |
16.4 |
平均分: |
45.25 |
模型名称: | Qwen-1_8B-Llamafied 📑 🟢 |
参数大小: |
18.4 |
平均分: |
44.75 |
模型名称: | ThetaWave-14B-v0.1 📑 🟢 |
参数大小: |
142.2 |
平均分: |
44.54 |
模型名称: | open_llama_7b_v2 📑 🟢 |
参数大小: |
70 |
平均分: |
44.26 |
模型名称: | falcon-7b ✅ 📑 🟢 |
参数大小: |
70 |
平均分: |
44.17 |
模型名称: | gpt-sw3-40b 📑 🟢 |
参数大小: |
399.3 |
平均分: |
43.42 |
模型名称: | CodeLlama-13b-hf 📑 🟢 |
参数大小: |
130.2 |
平均分: |
43.35 |
模型名称: | quan-1.8b-base 📑 🟢 |
参数大小: |
18 |
平均分: |
43.35 |
模型名称: | opt-66b 📑 🟢 |
参数大小: |
660 |
平均分: |
42.78 |
模型名称: | codegen-16B-nl 📑 🟢 |
参数大小: |
160 |
平均分: |
42.59 |
模型名称: | open_llama_7b 📑 🟢 |
参数大小: |
70 |
平均分: |
42.31 |
模型名称: | palmyra-large 📑 🟢 |
参数大小: |
0 |
平均分: |
42.09 |
模型名称: | opt-30b 📑 🟢 |
参数大小: |
300 |
平均分: |
42.0 |
模型名称: | gpt-neox-20b ✅ 📑 🟢 |
参数大小: |
207.4 |
平均分: |
41.69 |
模型名称: | RedPajama-INCITE-7B-Base 📑 🟢 |
参数大小: |
70 |
平均分: |
41.49 |
模型名称: | MiniMA-3B 📑 🟢 |
参数大小: |
30.2 |
平均分: |
41.44 |
模型名称: | nucleus-22B-token-500B 📑 🟢 |
参数大小: |
218.3 |
平均分: |
41.33 |
模型名称: | RedPajama-INCITE-Base-7B-v0.1 ✅ 📑 🟢 |
参数大小: |
66.5 |
平均分: |
41.25 |
模型名称: | Amber 📑 🟢 |
参数大小: |
0 |
平均分: |
40.97 |
模型名称: | gpt-sw3-20b 📑 🟢 |
参数大小: |
209.2 |
平均分: |
40.71 |
模型名称: | ThetaWave-28B-v0.1 📑 🟢 |
参数大小: |
281.8 |
平均分: |
40.4 |
模型名称: | open_llama_3b_v2 📑 🟢 |
参数大小: |
30 |
平均分: |
40.28 |
模型名称: | gpt-j-6b ✅ 📑 🟢 |
参数大小: |
60 |
平均分: |
40.1 |
模型名称: | opt-13b 📑 🟢 |
参数大小: |
130 |
平均分: |
40.06 |
模型名称: | codegen-6B-nl 📑 🟢 |
参数大小: |
60 |
平均分: |
40.0 |
模型名称: | CodeLlama-7b-hf 📑 🟢 |
参数大小: |
67.4 |
平均分: |
39.81 |
模型名称: | pythia-12b-deduped 📑 🟢 |
参数大小: |
120 |
平均分: |
39.7 |
模型名称: | gpt-sw3-6.7b-v2 📑 🟢 |
参数大小: |
71.1 |
平均分: |
39.49 |
模型名称: | pythia-6.9b-deduped 📑 🟢 |
参数大小: |
69 |
平均分: |
39.3 |
模型名称: | bloom-7b1 📑 🟢 |
参数大小: |
70.7 |
平均分: |
39.18 |
模型名称: | h2o-danube-1.8b-base 📑 🟢 |
参数大小: |
18.3 |
平均分: |
39.12 |
模型名称: | opt-6.7b 📑 🟢 |
参数大小: |
67 |
平均分: |
39.08 |
模型名称: | pythia-12b ✅ 📑 🟢 |
参数大小: |
120 |
平均分: |
38.82 |
模型名称: | weblab-10b 📑 🟢 |
参数大小: |
100 |
平均分: |
38.59 |
模型名称: | RedPajama-INCITE-Base-3B-v1 📑 🟢 |
参数大小: |
30 |
平均分: |
38.54 |
模型名称: | open_llama_3b 📑 🟢 |
参数大小: |
30 |
平均分: |
38.26 |