🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
codegen-6B-nl 📑 | 🟢 |
60 |
40.0 |
42.32 |
68.59 |
25.93 |
34.47 |
66.46 |
2.2 |
CodeGenForCausalLM |
Javalion-GPTJ 📑 | 🔶 |
0 |
39.97 |
41.89 |
68.69 |
26.85 |
35.44 |
65.27 |
1.67 |
GPTJForCausalLM |
WizardLM-30B-GPTQ 📑 | ❓ |
355.8 |
39.9 |
28.84 |
26.08 |
24.62 |
49.14 |
76.32 |
34.42 |
LlamaForCausalLM |
h2ogpt-gm-oasst1-en-1024-open-llama-7b-preview-400bt 📑 | 🔶 |
70 |
39.89 |
41.3 |
62.44 |
27.55 |
42.0 |
64.56 |
1.52 |
LlamaForCausalLM |
Skegma-GPTJ 📑 | 🔶 |
0 |
39.87 |
43.77 |
69.22 |
25.37 |
34.67 |
64.64 |
1.52 |
GPTJForCausalLM |
Pythia-Chat-Base-7B 📑 | 🔶 |
70 |
39.81 |
40.02 |
68.67 |
27.44 |
34.63 |
64.01 |
4.09 |
GPTNeoXForCausalLM |
CodeLlama-7b-hf 📑 | 🟢 |
67.4 |
39.81 |
39.93 |
60.8 |
31.12 |
37.82 |
64.01 |
5.16 |
LlamaForCausalLM |
open_llama_3b_glaive_assistant_v0.1 📑 | 🔶 |
34.3 |
39.74 |
40.7 |
67.45 |
27.74 |
35.86 |
64.72 |
1.97 |
Unknown |
open_llama_3b_glaive_code_v0.1 📑 | 🔶 |
34.3 |
39.74 |
40.7 |
67.45 |
27.74 |
35.86 |
64.72 |
1.97 |
LlamaForCausalLM |
open_llama_3b_glaive_v0.1 📑 | 🔶 |
34.3 |
39.74 |
40.7 |
67.45 |
27.74 |
35.86 |
64.72 |
1.97 |
Unknown |
WizardVicuna-Uncensored-3B-0719 📑 | 🔶 |
34.3 |
39.73 |
41.38 |
66.19 |
26.53 |
39.35 |
63.77 |
1.14 |
LlamaForCausalLM |
open_llama_3b_code_instruct_0.1 📑 | 💬 |
34.3 |
39.72 |
41.21 |
66.96 |
27.82 |
35.01 |
65.43 |
1.9 |
LlamaForCausalLM |
pythia-12b-deduped 📑 | 🟢 |
120 |
39.7 |
41.38 |
70.26 |
25.63 |
33.0 |
66.46 |
1.44 |
GPTNeoXForCausalLM |
GPT-J-Pyg_PPO-6B-Dev-V8p4 📑 | 🔶 |
60 |
39.61 |
40.19 |
66.43 |
30.39 |
34.76 |
64.01 |
1.9 |
GPTJForCausalLM |
OPT-13B-Erebus 📑 | 🔶 |
130 |
39.61 |
40.02 |
70.07 |
25.32 |
34.93 |
66.54 |
0.76 |
OPTForCausalLM |
OPT-13B-Nerybus-Mix 📑 | 🔶 |
130 |
39.61 |
39.85 |
70.6 |
24.9 |
34.02 |
67.88 |
0.38 |
OPTForCausalLM |
GPT-J-6B-Shinen 📑 | 🔶 |
60 |
39.6 |
39.85 |
67.06 |
27.72 |
36.94 |
64.09 |
1.97 |
GPTJForCausalLM |
GPT-J-Pyg_PPO-6B 📑 | 🔶 |
60 |
39.6 |
42.06 |
67.51 |
28.52 |
31.95 |
64.72 |
2.81 |
GPTJForCausalLM |
speechless-nl2sql-ds-6.7b 📑 | 🔶 |
67.4 |
39.59 |
36.35 |
52.83 |
36.8 |
40.55 |
55.96 |
15.09 |
LlamaForCausalLM |
GPT-J-6B-Janeway 📑 | 🔶 |
60 |
39.54 |
40.87 |
67.11 |
27.45 |
35.74 |
64.72 |
1.36 |
GPTJForCausalLM |
LightGPT ✅ 📑 | ❓ |
0 |
39.54 |
39.93 |
63.82 |
28.45 |
36.69 |
64.48 |
3.87 |
GPTJForCausalLM |
OPT-13B-Nerys-v2 📑 | 🔶 |
130 |
39.53 |
39.68 |
70.53 |
25.36 |
33.5 |
67.88 |
0.23 |
OPTForCausalLM |
RedPajama-INCITE-Chat-3B-v1 📑 | 🔶 |
30 |
39.53 |
42.83 |
67.62 |
26.23 |
34.44 |
65.51 |
0.53 |
GPTNeoXForCausalLM |
gpt-sw3-6.7b-v2 📑 | 🟢 |
71.1 |
39.49 |
39.42 |
66.39 |
30.09 |
35.6 |
64.25 |
1.21 |
GPT2LMHeadModel |
WizardVicuna-3B-0719 📑 | 🔶 |
30 |
39.48 |
40.7 |
65.45 |
25.44 |
40.71 |
63.85 |
0.76 |
LlamaForCausalLM |
dolly-v2-12b ✅ 📑 | 🔶 |
120 |
39.46 |
42.41 |
72.53 |
25.92 |
33.83 |
60.85 |
1.21 |
GPTNeoXForCausalLM |
llama2-ppo 📑 | 🔶 |
67.4 |
39.44 |
41.64 |
49.46 |
35.36 |
45.08 |
64.96 |
0.15 |
Unknown |
RedPajama-INCITE-Chat-3B-Instruction-Tuning-with-GPT-4 📑 | 🔶 |
29.1 |
39.38 |
41.64 |
66.23 |
27.26 |
36.1 |
64.4 |
0.68 |
GPTNeoXForCausalLM |
RedPajama-INCITE-7B-Chat 📑 | 🔶 |
70 |
39.37 |
42.06 |
70.82 |
26.94 |
36.09 |
59.83 |
0.45 |
GPTNeoXForCausalLM |
RedPajama-INCITE-Chat-7B-v0.1 📑 | 🔶 |
66.5 |
39.37 |
42.06 |
70.82 |
26.94 |
36.09 |
59.83 |
0.45 |
Unknown |
pythia-6.9b-deduped 📑 | 🟢 |
69 |
39.3 |
41.3 |
67.05 |
26.48 |
35.19 |
64.09 |
1.67 |
GPTNeoXForCausalLM |
LLmRA-3B-v0.1 📑 | 🔶 |
30 |
39.25 |
39.42 |
59.79 |
25.16 |
50.62 |
59.43 |
1.06 |
LlamaForCausalLM |
dolly-v2-7b 📑 | 🔶 |
70 |
39.24 |
44.54 |
69.64 |
25.18 |
34.88 |
60.06 |
1.14 |
GPTNeoXForCausalLM |
FLAMA-0.5-3B 📑 | 🔶 |
30 |
39.23 |
37.97 |
67.65 |
25.73 |
41.11 |
62.12 |
0.83 |
LlamaForCausalLM |
RedPajama-INCITE-Chat-Instruct-3B-V1 📑 | 🔶 |
27.8 |
39.23 |
42.58 |
67.48 |
25.99 |
33.62 |
64.8 |
0.91 |
GPTNeoXForCausalLM |
RedTulu-Uncensored-3B-0719 📑 | 🔶 |
30 |
39.19 |
40.02 |
62.55 |
30.37 |
37.59 |
62.35 |
2.27 |
GPTNeoXForCausalLM |
bloom-7b1 📑 | 🟢 |
70.7 |
39.18 |
41.13 |
62.0 |
26.25 |
38.9 |
65.43 |
1.36 |
BloomForCausalLM |
weblab-10b-instruction-sft 📑 | 💬 |
100 |
39.13 |
40.1 |
65.3 |
26.66 |
36.79 |
64.09 |
1.82 |
GPTNeoXForCausalLM |
h2o-danube-1.8b-base 📑 | 🟢 |
18.3 |
39.12 |
39.42 |
69.58 |
25.94 |
33.86 |
64.48 |
1.44 |
MistralForCausalLM |
robin-33B-v2-GPTQ 📑 | ❓ |
355.8 |
39.1 |
27.73 |
26.29 |
23.53 |
49.54 |
79.79 |
27.75 |
LlamaForCausalLM |
OPT-6.7B-Erebus 📑 | 🔶 |
67 |
39.09 |
39.16 |
68.66 |
24.58 |
35.12 |
65.98 |
1.06 |
OPTForCausalLM |
opt-6.7b 📑 | 🟢 |
67 |
39.08 |
39.16 |
68.66 |
24.57 |
35.12 |
65.98 |
0.99 |
OPTForCausalLM |
RedPajama-INCITE-Instruct-3B-v1 ✅ 📑 | 🔶 |
30 |
39.06 |
41.55 |
65.48 |
25.03 |
36.41 |
64.48 |
1.36 |
GPTNeoXForCausalLM |
deacon-3b 📑 | 💬 |
34.3 |
39.05 |
39.68 |
66.42 |
27.13 |
36.07 |
64.64 |
0.38 |
LlamaForCausalLM |
ScarletPajama-3B-HF 📑 | 🔶 |
30 |
39.04 |
39.76 |
64.89 |
27.28 |
37.6 |
64.48 |
0.23 |
GPTNeoXForCausalLM |
orca_mini_3b 📑 | 🔶 |
33.2 |
39.03 |
41.55 |
61.52 |
26.79 |
42.42 |
61.8 |
0.08 |
Unknown |
black_goo_recipe_c 📑 | 💬 |
0 |
39.01 |
38.74 |
66.83 |
26.57 |
36.54 |
64.72 |
0.68 |
LlamaForCausalLM |
Guanaco-3B-Uncensored-v2 📑 | 🔶 |
27.8 |
38.98 |
42.15 |
66.72 |
26.18 |
35.21 |
63.3 |
0.3 |
GPTNeoXForCausalLM |
cross_lingual_epoch2 📑 | 💬 |
0 |
38.97 |
39.25 |
47.92 |
36.66 |
47.9 |
62.12 |
0.0 |
LlamaForCausalLM |
open_llama_3b_instruct_v_0.2 📑 | 💬 |
34.3 |
38.97 |
38.48 |
66.77 |
25.34 |
38.16 |
63.46 |
1.59 |
LlamaForCausalLM |
Guanaco-3B-Uncensored-v2-GPTQ 📑 | 🔶 |
47.8 |
38.95 |
41.64 |
64.76 |
26.25 |
36.58 |
64.33 |
0.15 |
GPTNeoXForCausalLM |
Guanaco-3B-Uncensored 📑 | 🔶 |
27.8 |
38.94 |
42.49 |
66.99 |
25.55 |
34.71 |
63.38 |
0.53 |
GPTNeoXForCausalLM |
mamba-gpt-3b 📑 | 🔶 |
34.3 |
38.87 |
40.53 |
64.94 |
25.35 |
37.14 |
65.04 |
0.23 |
LlamaForCausalLM |
OPT-6.7B-Nerybus-Mix 📑 | 🔶 |
67 |
38.83 |
39.16 |
68.63 |
24.47 |
34.84 |
65.11 |
0.76 |
OPTForCausalLM |
pythia-12b ✅ 📑 | 🟢 |
120 |
38.82 |
39.59 |
68.82 |
26.76 |
31.85 |
64.17 |
1.74 |
GPTNeoXForCausalLM |
WizardVicuna-open-llama-3b-v2 📑 | 💬 |
34.3 |
38.77 |
37.71 |
66.6 |
27.23 |
36.8 |
63.3 |
0.99 |
LlamaForCausalLM |
black_goo_recipe_a 📑 | 💬 |
0 |
38.73 |
38.14 |
66.56 |
25.75 |
37.46 |
63.93 |
0.53 |
LlamaForCausalLM |
OPT-6B-nerys-v2 📑 | 🔶 |
60 |
38.72 |
38.4 |
68.57 |
24.34 |
34.73 |
65.59 |
0.68 |
OPTForCausalLM |
instruct-12b 📑 | 🔶 |
120 |
38.63 |
42.58 |
66.76 |
26.79 |
31.96 |
63.46 |
0.23 |
GPTNeoXForCausalLM |
h2ogpt-oig-oasst1-256-6_9b 📑 | 🔶 |
90 |
38.62 |
39.93 |
65.42 |
26.39 |
35.0 |
63.38 |
1.59 |
GPTNeoXForCausalLM |
weblab-10b 📑 | 🟢 |
100 |
38.59 |
39.51 |
65.76 |
26.29 |
36.02 |
62.51 |
1.44 |
GPTNeoXForCausalLM |
black_goo_recipe_d 📑 | 💬 |
0 |
38.57 |
37.8 |
66.5 |
26.64 |
36.46 |
63.61 |
0.38 |
LlamaForCausalLM |
RedPajama-INCITE-Base-3B-v1 📑 | 🟢 |
30 |
38.54 |
40.19 |
64.77 |
27.03 |
33.23 |
64.72 |
1.29 |
GPTNeoXForCausalLM |
OPT-30B-Erebus 📑 | 🔶 |
300 |
38.53 |
36.69 |
65.6 |
24.8 |
38.76 |
65.11 |
0.23 |
OPTForCausalLM |
CrimsonPajama 📑 | 🔶 |
0 |
38.52 |
40.19 |
65.47 |
25.95 |
33.78 |
65.19 |
0.53 |
GPTNeoXForCausalLM |
h2ogpt-oig-oasst1-512-6_9b 📑 | 🔶 |
90 |
38.52 |
40.44 |
65.58 |
24.9 |
36.68 |
62.51 |
0.99 |
GPTNeoXForCausalLM |
guanaco-33B-GPTQ 📑 | ❓ |
355.8 |
38.51 |
28.16 |
26.34 |
24.94 |
48.98 |
78.85 |
23.81 |
LlamaForCausalLM |
LLongMA-3b-LIMA 📑 | 💬 |
30 |
38.51 |
39.08 |
67.15 |
26.43 |
34.71 |
63.38 |
0.3 |
LlamaForCausalLM |
pythia-6.9b-HC3 📑 | ❓ |
69 |
38.51 |
36.52 |
61.76 |
26.94 |
45.05 |
60.77 |
0.0 |
GPTNeoXForCausalLM |
black_goo_recipe_b 📑 | 💬 |
0 |
38.49 |
37.63 |
66.72 |
25.68 |
37.09 |
63.77 |
0.08 |
LlamaForCausalLM |
RedPajama-INCITE-Chat-3B-ShareGPT-11K 📑 | 🔶 |
30 |
38.47 |
40.61 |
64.84 |
26.13 |
35.41 |
63.54 |
0.3 |
GPTNeoXForCausalLM |
pygmalion-6b 📑 | 🔶 |
60 |
38.47 |
40.53 |
67.47 |
25.73 |
32.53 |
62.51 |
2.05 |
GPTJForCausalLM |
WizardLM-33B-V1.0-Uncensored-GPTQ 📑 | 🔶 |
355.8 |
38.43 |
27.39 |
26.03 |
25.81 |
48.9 |
77.9 |
24.56 |
LlamaForCausalLM |
OmegLLaMA-3B 📑 | 🔶 |
34.3 |
38.28 |
40.36 |
66.13 |
28.0 |
33.31 |
61.64 |
0.23 |
LlamaForCausalLM |
open_llama_3b 📑 | 🟢 |
30 |
38.26 |
39.85 |
62.65 |
26.94 |
34.97 |
64.72 |
0.45 |
LlamaForCausalLM |
FLOR-6.3B-xat 📑 | 🔶 |
62.5 |
38.23 |
38.65 |
63.76 |
26.54 |
37.96 |
62.43 |
0.0 |
BloomForCausalLM |
pythia-6.7b 📑 | 🟢 |
66.5 |
38.06 |
40.1 |
65.0 |
24.64 |
32.85 |
64.72 |
1.06 |
Unknown |
Zro1.5_3B 📑 | 🔶 |
27.8 |
38.02 |
35.92 |
61.11 |
25.55 |
36.89 |
58.72 |
9.93 |
GPTNeoXForCausalLM |
Tinyllama-Cinder-1.3B-Reason-Test 📑 | 🔶 |
12.8 |
37.88 |
34.56 |
58.24 |
25.79 |
39.93 |
63.93 |
4.85 |
LlamaForCausalLM |
Galactica-6.7B-EssayWriter 📑 | 🔶 |
66.6 |
37.75 |
40.1 |
50.29 |
33.88 |
40.27 |
58.48 |
3.49 |
OPTForCausalLM |
falcon-rw-1b-instruct-openorca 📑 | 💬 |
13.1 |
37.63 |
34.56 |
60.93 |
28.77 |
37.42 |
60.69 |
3.41 |
FalconForCausalLM |
falcon_1b_stage2 📑 | 🔶 |
10 |
37.59 |
35.49 |
65.56 |
23.83 |
38.32 |
62.35 |
0.0 |
FalconForCausalLM |
bloom-zh-3b-chat 📑 | 🔶 |
30 |
37.58 |
38.82 |
54.71 |
31.62 |
41.25 |
58.64 |
0.45 |
BloomForCausalLM |
h2ogpt-gm-oasst1-en-2048-open-llama-7b-preview-300bt-v2 📑 | 🔶 |
70 |
37.55 |
36.43 |
61.41 |
25.01 |
37.59 |
64.64 |
0.23 |
LlamaForCausalLM |
Evaloric-1.1B 📑 | 💬 |
11 |
37.54 |
35.07 |
60.93 |
25.36 |
37.78 |
64.96 |
1.14 |
LlamaForCausalLM |
CodeLlama-13B-Python-fp16 📑 | 🔶 |
130.2 |
37.52 |
33.19 |
44.5 |
25.94 |
43.99 |
67.4 |
10.08 |
LlamaForCausalLM |
Cerebras-GPT-13B ✅ 📑 | 🟢 |
130 |
37.4 |
38.14 |
60.01 |
25.92 |
39.19 |
59.83 |
1.29 |
GPT2Model |
falcon-rw-1b-chat 📑 | 💬 |
13.1 |
37.37 |
35.58 |
61.12 |
24.51 |
39.62 |
61.72 |
1.67 |
FalconForCausalLM |
StellarX-4B-V0 📑 | 🟢 |
40 |
37.31 |
36.95 |
61.9 |
26.85 |
34.3 |
63.85 |
0.0 |
GPTNeoXForCausalLM |
manovyadh-1.1B-v1-chat 📑 | 🔶 |
11 |
37.3 |
35.92 |
60.03 |
25.82 |
39.17 |
61.09 |
1.74 |
LlamaForCausalLM |
TinyLlama-1.1B-Chat-v1.0 📑 | 🔶 |
11 |
37.28 |
36.09 |
61.1 |
25.39 |
37.48 |
61.25 |
2.35 |
LlamaForCausalLM |
WizardLM-30B-Uncensored-GPTQ 📑 | ❓ |
355.8 |
37.27 |
29.44 |
26.47 |
24.35 |
49.15 |
73.16 |
21.08 |
LlamaForCausalLM |
RedPajama-INCITE-Chat-3B-v1-FT-LoRA-8bit-test1 📑 | 🔶 |
30 |
37.27 |
38.65 |
63.53 |
25.16 |
36.07 |
60.14 |
0.08 |
Unknown |
galactica-6.7b-evol-instruct-70k 📑 | ❓ |
67 |
37.27 |
42.58 |
49.3 |
32.96 |
42.1 |
56.27 |
0.38 |
OPTForCausalLM |
falcon_1b_stage1 📑 | 🔶 |
10 |
37.25 |
35.15 |
62.4 |
24.47 |
40.0 |
61.48 |
0.0 |
FalconForCausalLM |
Tinyllama-Cinder-1.3B-Reason-Test.2 📑 | 🔶 |
12.8 |
37.25 |
32.76 |
58.27 |
24.39 |
39.0 |
65.04 |
4.02 |
LlamaForCausalLM |
gpt-sw3-6.7b 📑 | 🟢 |
71.1 |
37.23 |
36.35 |
60.75 |
26.0 |
39.04 |
60.69 |
0.53 |
GPT2LMHeadModel |
TinyLlama-3T-Cinder-v1.3 📑 | 🤝 |
11 |
37.23 |
33.96 |
58.14 |
25.41 |
38.13 |
63.93 |
3.79 |
LlamaForCausalLM |
TinyLlama-1.1B-orca-v1.0 📑 | 💬 |
11 |
37.17 |
36.35 |
61.23 |
25.18 |
36.58 |
61.4 |
2.27 |
LlamaForCausalLM |
TinyLlama-1.1B-Chat-v1.0 📑 | 🔶 |
11 |
37.17 |
35.92 |
61.11 |
25.0 |
37.38 |
61.17 |
2.43 |
LlamaForCausalLM |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | codegen-6B-nl 📑 🟢 |
参数大小: |
60 |
平均分: |
40.0 |
模型名称: | Javalion-GPTJ 📑 🔶 |
参数大小: |
0 |
平均分: |
39.97 |
模型名称: | WizardLM-30B-GPTQ 📑 ❓ |
参数大小: |
355.8 |
平均分: |
39.9 |
模型名称: | h2ogpt-gm-oasst1-en-1024-open-llama-7b-preview-400bt 📑 🔶 |
参数大小: |
70 |
平均分: |
39.89 |
模型名称: | Skegma-GPTJ 📑 🔶 |
参数大小: |
0 |
平均分: |
39.87 |
模型名称: | Pythia-Chat-Base-7B 📑 🔶 |
参数大小: |
70 |
平均分: |
39.81 |
模型名称: | CodeLlama-7b-hf 📑 🟢 |
参数大小: |
67.4 |
平均分: |
39.81 |
模型名称: | open_llama_3b_glaive_assistant_v0.1 📑 🔶 |
参数大小: |
34.3 |
平均分: |
39.74 |
模型名称: | open_llama_3b_glaive_code_v0.1 📑 🔶 |
参数大小: |
34.3 |
平均分: |
39.74 |
模型名称: | open_llama_3b_glaive_v0.1 📑 🔶 |
参数大小: |
34.3 |
平均分: |
39.74 |
模型名称: | WizardVicuna-Uncensored-3B-0719 📑 🔶 |
参数大小: |
34.3 |
平均分: |
39.73 |
模型名称: | open_llama_3b_code_instruct_0.1 📑 💬 |
参数大小: |
34.3 |
平均分: |
39.72 |
模型名称: | pythia-12b-deduped 📑 🟢 |
参数大小: |
120 |
平均分: |
39.7 |
模型名称: | GPT-J-Pyg_PPO-6B-Dev-V8p4 📑 🔶 |
参数大小: |
60 |
平均分: |
39.61 |
模型名称: | OPT-13B-Erebus 📑 🔶 |
参数大小: |
130 |
平均分: |
39.61 |
模型名称: | OPT-13B-Nerybus-Mix 📑 🔶 |
参数大小: |
130 |
平均分: |
39.61 |
模型名称: | GPT-J-6B-Shinen 📑 🔶 |
参数大小: |
60 |
平均分: |
39.6 |
模型名称: | GPT-J-Pyg_PPO-6B 📑 🔶 |
参数大小: |
60 |
平均分: |
39.6 |
模型名称: | speechless-nl2sql-ds-6.7b 📑 🔶 |
参数大小: |
67.4 |
平均分: |
39.59 |
模型名称: | GPT-J-6B-Janeway 📑 🔶 |
参数大小: |
60 |
平均分: |
39.54 |
模型名称: | LightGPT ✅ 📑 ❓ |
参数大小: |
0 |
平均分: |
39.54 |
模型名称: | OPT-13B-Nerys-v2 📑 🔶 |
参数大小: |
130 |
平均分: |
39.53 |
模型名称: | RedPajama-INCITE-Chat-3B-v1 📑 🔶 |
参数大小: |
30 |
平均分: |
39.53 |
模型名称: | gpt-sw3-6.7b-v2 📑 🟢 |
参数大小: |
71.1 |
平均分: |
39.49 |
模型名称: | WizardVicuna-3B-0719 📑 🔶 |
参数大小: |
30 |
平均分: |
39.48 |
模型名称: | dolly-v2-12b ✅ 📑 🔶 |
参数大小: |
120 |
平均分: |
39.46 |
模型名称: | llama2-ppo 📑 🔶 |
参数大小: |
67.4 |
平均分: |
39.44 |
模型名称: | RedPajama-INCITE-Chat-3B-Instruction-Tuning-with-GPT-4 📑 🔶 |
参数大小: |
29.1 |
平均分: |
39.38 |
模型名称: | RedPajama-INCITE-7B-Chat 📑 🔶 |
参数大小: |
70 |
平均分: |
39.37 |
模型名称: | RedPajama-INCITE-Chat-7B-v0.1 📑 🔶 |
参数大小: |
66.5 |
平均分: |
39.37 |
模型名称: | pythia-6.9b-deduped 📑 🟢 |
参数大小: |
69 |
平均分: |
39.3 |
模型名称: | LLmRA-3B-v0.1 📑 🔶 |
参数大小: |
30 |
平均分: |
39.25 |
模型名称: | dolly-v2-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
39.24 |
模型名称: | FLAMA-0.5-3B 📑 🔶 |
参数大小: |
30 |
平均分: |
39.23 |
模型名称: | RedPajama-INCITE-Chat-Instruct-3B-V1 📑 🔶 |
参数大小: |
27.8 |
平均分: |
39.23 |
模型名称: | RedTulu-Uncensored-3B-0719 📑 🔶 |
参数大小: |
30 |
平均分: |
39.19 |
模型名称: | bloom-7b1 📑 🟢 |
参数大小: |
70.7 |
平均分: |
39.18 |
模型名称: | weblab-10b-instruction-sft 📑 💬 |
参数大小: |
100 |
平均分: |
39.13 |
模型名称: | h2o-danube-1.8b-base 📑 🟢 |
参数大小: |
18.3 |
平均分: |
39.12 |
模型名称: | robin-33B-v2-GPTQ 📑 ❓ |
参数大小: |
355.8 |
平均分: |
39.1 |
模型名称: | OPT-6.7B-Erebus 📑 🔶 |
参数大小: |
67 |
平均分: |
39.09 |
模型名称: | opt-6.7b 📑 🟢 |
参数大小: |
67 |
平均分: |
39.08 |
模型名称: | RedPajama-INCITE-Instruct-3B-v1 ✅ 📑 🔶 |
参数大小: |
30 |
平均分: |
39.06 |
模型名称: | deacon-3b 📑 💬 |
参数大小: |
34.3 |
平均分: |
39.05 |
模型名称: | ScarletPajama-3B-HF 📑 🔶 |
参数大小: |
30 |
平均分: |
39.04 |
模型名称: | orca_mini_3b 📑 🔶 |
参数大小: |
33.2 |
平均分: |
39.03 |
模型名称: | black_goo_recipe_c 📑 💬 |
参数大小: |
0 |
平均分: |
39.01 |
模型名称: | Guanaco-3B-Uncensored-v2 📑 🔶 |
参数大小: |
27.8 |
平均分: |
38.98 |
模型名称: | cross_lingual_epoch2 📑 💬 |
参数大小: |
0 |
平均分: |
38.97 |
模型名称: | open_llama_3b_instruct_v_0.2 📑 💬 |
参数大小: |
34.3 |
平均分: |
38.97 |
模型名称: | Guanaco-3B-Uncensored-v2-GPTQ 📑 🔶 |
参数大小: |
47.8 |
平均分: |
38.95 |
模型名称: | Guanaco-3B-Uncensored 📑 🔶 |
参数大小: |
27.8 |
平均分: |
38.94 |
模型名称: | mamba-gpt-3b 📑 🔶 |
参数大小: |
34.3 |
平均分: |
38.87 |
模型名称: | OPT-6.7B-Nerybus-Mix 📑 🔶 |
参数大小: |
67 |
平均分: |
38.83 |
模型名称: | pythia-12b ✅ 📑 🟢 |
参数大小: |
120 |
平均分: |
38.82 |
模型名称: | WizardVicuna-open-llama-3b-v2 📑 💬 |
参数大小: |
34.3 |
平均分: |
38.77 |
模型名称: | black_goo_recipe_a 📑 💬 |
参数大小: |
0 |
平均分: |
38.73 |
模型名称: | OPT-6B-nerys-v2 📑 🔶 |
参数大小: |
60 |
平均分: |
38.72 |
模型名称: | instruct-12b 📑 🔶 |
参数大小: |
120 |
平均分: |
38.63 |
模型名称: | h2ogpt-oig-oasst1-256-6_9b 📑 🔶 |
参数大小: |
90 |
平均分: |
38.62 |
模型名称: | weblab-10b 📑 🟢 |
参数大小: |
100 |
平均分: |
38.59 |
模型名称: | black_goo_recipe_d 📑 💬 |
参数大小: |
0 |
平均分: |
38.57 |
模型名称: | RedPajama-INCITE-Base-3B-v1 📑 🟢 |
参数大小: |
30 |
平均分: |
38.54 |
模型名称: | OPT-30B-Erebus 📑 🔶 |
参数大小: |
300 |
平均分: |
38.53 |
模型名称: | CrimsonPajama 📑 🔶 |
参数大小: |
0 |
平均分: |
38.52 |
模型名称: | h2ogpt-oig-oasst1-512-6_9b 📑 🔶 |
参数大小: |
90 |
平均分: |
38.52 |
模型名称: | guanaco-33B-GPTQ 📑 ❓ |
参数大小: |
355.8 |
平均分: |
38.51 |
模型名称: | LLongMA-3b-LIMA 📑 💬 |
参数大小: |
30 |
平均分: |
38.51 |
模型名称: | pythia-6.9b-HC3 📑 ❓ |
参数大小: |
69 |
平均分: |
38.51 |
模型名称: | black_goo_recipe_b 📑 💬 |
参数大小: |
0 |
平均分: |
38.49 |
模型名称: | RedPajama-INCITE-Chat-3B-ShareGPT-11K 📑 🔶 |
参数大小: |
30 |
平均分: |
38.47 |
模型名称: | pygmalion-6b 📑 🔶 |
参数大小: |
60 |
平均分: |
38.47 |
模型名称: | WizardLM-33B-V1.0-Uncensored-GPTQ 📑 🔶 |
参数大小: |
355.8 |
平均分: |
38.43 |
模型名称: | OmegLLaMA-3B 📑 🔶 |
参数大小: |
34.3 |
平均分: |
38.28 |
模型名称: | open_llama_3b 📑 🟢 |
参数大小: |
30 |
平均分: |
38.26 |
模型名称: | FLOR-6.3B-xat 📑 🔶 |
参数大小: |
62.5 |
平均分: |
38.23 |
模型名称: | pythia-6.7b 📑 🟢 |
参数大小: |
66.5 |
平均分: |
38.06 |
模型名称: | Zro1.5_3B 📑 🔶 |
参数大小: |
27.8 |
平均分: |
38.02 |
模型名称: | Tinyllama-Cinder-1.3B-Reason-Test 📑 🔶 |
参数大小: |
12.8 |
平均分: |
37.88 |
模型名称: | Galactica-6.7B-EssayWriter 📑 🔶 |
参数大小: |
66.6 |
平均分: |
37.75 |
模型名称: | falcon-rw-1b-instruct-openorca 📑 💬 |
参数大小: |
13.1 |
平均分: |
37.63 |
模型名称: | falcon_1b_stage2 📑 🔶 |
参数大小: |
10 |
平均分: |
37.59 |
模型名称: | bloom-zh-3b-chat 📑 🔶 |
参数大小: |
30 |
平均分: |
37.58 |
模型名称: | h2ogpt-gm-oasst1-en-2048-open-llama-7b-preview-300bt-v2 📑 🔶 |
参数大小: |
70 |
平均分: |
37.55 |
模型名称: | Evaloric-1.1B 📑 💬 |
参数大小: |
11 |
平均分: |
37.54 |
模型名称: | CodeLlama-13B-Python-fp16 📑 🔶 |
参数大小: |
130.2 |
平均分: |
37.52 |
模型名称: | Cerebras-GPT-13B ✅ 📑 🟢 |
参数大小: |
130 |
平均分: |
37.4 |
模型名称: | falcon-rw-1b-chat 📑 💬 |
参数大小: |
13.1 |
平均分: |
37.37 |
模型名称: | StellarX-4B-V0 📑 🟢 |
参数大小: |
40 |
平均分: |
37.31 |
模型名称: | manovyadh-1.1B-v1-chat 📑 🔶 |
参数大小: |
11 |
平均分: |
37.3 |
模型名称: | TinyLlama-1.1B-Chat-v1.0 📑 🔶 |
参数大小: |
11 |
平均分: |
37.28 |
模型名称: | WizardLM-30B-Uncensored-GPTQ 📑 ❓ |
参数大小: |
355.8 |
平均分: |
37.27 |
模型名称: | RedPajama-INCITE-Chat-3B-v1-FT-LoRA-8bit-test1 📑 🔶 |
参数大小: |
30 |
平均分: |
37.27 |
模型名称: | galactica-6.7b-evol-instruct-70k 📑 ❓ |
参数大小: |
67 |
平均分: |
37.27 |
模型名称: | falcon_1b_stage1 📑 🔶 |
参数大小: |
10 |
平均分: |
37.25 |
模型名称: | Tinyllama-Cinder-1.3B-Reason-Test.2 📑 🔶 |
参数大小: |
12.8 |
平均分: |
37.25 |
模型名称: | gpt-sw3-6.7b 📑 🟢 |
参数大小: |
71.1 |
平均分: |
37.23 |
模型名称: | TinyLlama-3T-Cinder-v1.3 📑 🤝 |
参数大小: |
11 |
平均分: |
37.23 |
模型名称: | TinyLlama-1.1B-orca-v1.0 📑 💬 |
参数大小: |
11 |
平均分: |
37.17 |
模型名称: | TinyLlama-1.1B-Chat-v1.0 📑 🔶 |
参数大小: |
11 |
平均分: |
37.17 |