🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
test_mistral2 📑 | 🔶 |
71.1 |
29.27 |
27.9 |
25.32 |
24.74 |
49.1 |
48.54 |
0.0 |
MistralModel |
gpt2-dolly 📑 | 💬 |
1.2 |
29.21 |
22.7 |
30.15 |
25.81 |
44.97 |
51.46 |
0.15 |
GPT2LMHeadModel |
Pythia-70M-ChatSalad 📑 | 🔶 |
1 |
29.2 |
20.99 |
27.28 |
24.78 |
49.74 |
52.41 |
0.0 |
GPTNeoXForCausalLM |
smol_llama-220M-open_instruct 📑 | 💬 |
2.2 |
29.19 |
25.0 |
29.71 |
26.11 |
44.06 |
50.28 |
0.0 |
LlamaForCausalLM |
DialoGPT-small 📑 | 🔶 |
1.8 |
29.19 |
25.77 |
25.79 |
25.81 |
47.49 |
50.28 |
0.0 |
GPT2LMHeadModel |
mistral-environment-all 📑 | 🔶 |
72.4 |
29.18 |
29.44 |
25.89 |
23.12 |
47.92 |
48.7 |
0.0 |
MistralForCausalLM |
testfinetunedmodel 📑 | 🔶 |
1.2 |
29.18 |
25.85 |
31.4 |
26.07 |
40.75 |
50.99 |
0.0 |
GPT2LMHeadModel |
TinyMistral-v2.5-MiniPile-Guidelines-E1 📑 | 🟢 |
0 |
29.16 |
26.54 |
25.65 |
23.44 |
49.9 |
49.41 |
0.0 |
MistralForCausalLM |
TinyMistral-v2.5-MiniPile-Guidelines-E1 📑 | 🟢 |
0 |
29.15 |
26.45 |
25.68 |
23.53 |
49.85 |
49.41 |
0.0 |
MistralForCausalLM |
pythia-31m-KI_v1-2048-scratch 📑 | 🟢 |
0.3 |
29.15 |
23.12 |
25.23 |
23.12 |
51.67 |
51.78 |
0.0 |
GPTNeoXForCausalLM |
opt-125m 📑 | 🟢 |
1.2 |
29.15 |
22.87 |
31.47 |
26.02 |
42.87 |
51.62 |
0.08 |
OPTForCausalLM |
gpt-neo-125m-neurallinguisticpioneers 📑 | 🔶 |
1.2 |
29.15 |
22.44 |
30.36 |
25.14 |
45.64 |
51.22 |
0.08 |
GPTNeoForCausalLM |
Cerebras-GPT-590M 📑 | ❓ |
5.9 |
29.14 |
23.72 |
32.4 |
25.97 |
44.15 |
48.15 |
0.45 |
? |
Llama-2-7b-Chat-AWQ 📑 | 🔶 |
11.3 |
29.14 |
27.22 |
25.48 |
24.67 |
49.95 |
47.51 |
0.0 |
Unknown |
TinyYi-7b-Test 📑 | 🔶 |
60.6 |
29.11 |
26.88 |
26.14 |
24.41 |
46.35 |
50.91 |
0.0 |
Unknown |
gpt3-finnish-large 📑 | 🟢 |
0 |
29.11 |
21.76 |
32.88 |
24.11 |
44.35 |
51.54 |
0.0 |
BloomModel |
gpt-neox-122m-minipile-digits 📑 | 🔶 |
1.7 |
29.1 |
20.73 |
27.03 |
25.31 |
49.19 |
52.33 |
0.0 |
GPTNeoXForCausalLM |
160M-TinyLLama-Mini-Cinder 📑 | 🔶 |
1.4 |
29.09 |
24.66 |
28.16 |
25.09 |
44.08 |
52.57 |
0.0 |
LlamaForCausalLM |
mpt-1b-redpajama-200b 📑 | 🔶 |
10 |
29.05 |
25.77 |
26.08 |
24.5 |
47.57 |
50.36 |
0.0 |
MosaicGPT |
pythia-160m 📑 | 🟢 |
2.1 |
29.02 |
22.78 |
30.34 |
24.95 |
44.26 |
51.54 |
0.23 |
GPTNeoXForCausalLM |
gpt2-conversational-or-qa 📑 | 🔶 |
1.4 |
29.01 |
21.42 |
27.61 |
26.51 |
47.31 |
51.14 |
0.08 |
GPT2LMHeadModel |
hepu-o4zf-ravz-7-0 📑 | 🔶 |
72.4 |
29.01 |
24.49 |
25.36 |
23.27 |
51.67 |
49.25 |
0.0 |
MistralForCausalLM |
SmolLlamix-8x101M 📑 | 🟢 |
4 |
28.98 |
22.7 |
28.5 |
24.69 |
46.09 |
51.3 |
0.61 |
MixtralForCausalLM |
smol_llama-101M-GQA 📑 | 🟢 |
1 |
28.97 |
23.55 |
28.77 |
24.24 |
45.76 |
50.67 |
0.83 |
LlamaForCausalLM |
smol_llama-101M-GQA 📑 | 🔶 |
1 |
28.96 |
23.46 |
28.73 |
24.35 |
45.8 |
50.67 |
0.76 |
LlamaForCausalLM |
OPT-19M-ChatSalad 📑 | 🔶 |
0.2 |
28.96 |
24.4 |
25.15 |
23.12 |
51.36 |
49.72 |
0.0 |
OPTForCausalLM |
pythia-70m 📑 | 🟢 |
1 |
28.93 |
21.59 |
27.29 |
25.9 |
47.06 |
51.46 |
0.3 |
Unknown |
opt-125m-gqa-ub-6-best-for-KV-cache 📑 | 🟢 |
1.2 |
28.93 |
24.23 |
25.0 |
23.12 |
49.53 |
51.7 |
0.0 |
OPTForCausalLM |
Mixsmol-4x400M-v0.1-epoch2 📑 | 🟢 |
17.7 |
28.92 |
23.55 |
32.6 |
25.26 |
39.24 |
52.64 |
0.23 |
MixtralForCausalLM |
590m 📑 | ❓ |
6.7 |
28.88 |
24.15 |
31.91 |
26.61 |
42.19 |
48.38 |
0.08 |
GPT2LMHeadModel |
open-calm-large 📑 | 🟢 |
0 |
28.88 |
20.73 |
29.56 |
25.23 |
46.52 |
51.14 |
0.08 |
GPTNeoXForCausalLM |
gpt2_137m_DolphinCoder 📑 | 🔶 |
1.4 |
28.87 |
21.84 |
31.35 |
25.4 |
41.58 |
52.01 |
1.06 |
Unknown |
gpt2_137m_DolphinCoder 📑 | 🔶 |
1.4 |
28.87 |
21.84 |
31.35 |
25.4 |
41.58 |
52.01 |
1.06 |
Unknown |
DialoGPT-medium 📑 | 🔶 |
0 |
28.86 |
24.49 |
26.21 |
25.84 |
47.06 |
49.57 |
0.0 |
GPT2LMHeadModel |
easyTermsSummerizer 📑 | 🔶 |
4.1 |
28.86 |
25.77 |
25.81 |
23.12 |
47.69 |
50.75 |
0.0 |
Unknown |
FinOPT-Washington 📑 | 🔶 |
1.2 |
28.85 |
25.17 |
26.25 |
24.83 |
45.8 |
51.07 |
0.0 |
OPTForCausalLM |
pythia-31m-goodwiki-deduped-2048-scratch 📑 | 🟢 |
0.3 |
28.85 |
23.12 |
25.66 |
23.11 |
51.32 |
49.88 |
0.0 |
GPTNeoXForCausalLM |
distilgpt2-emailgen 📑 | 🔶 |
0.9 |
28.84 |
21.76 |
27.52 |
25.97 |
46.17 |
51.62 |
0.0 |
GPT2LMHeadModel |
facebook-opt-6.7b-gqa-ub-16-best-for-KV-cache 📑 | 🟢 |
67 |
28.84 |
23.04 |
25.94 |
23.12 |
48.99 |
51.93 |
0.0 |
OPTForCausalLM |
pythia-31m 📑 | 🟢 |
0.3 |
28.81 |
21.84 |
27.0 |
24.97 |
49.1 |
49.72 |
0.23 |
GPTNeoXForCausalLM |
Yi-8B-Llama 📑 | ❓ |
87.3 |
28.78 |
25.68 |
26.79 |
24.14 |
47.79 |
48.3 |
0.0 |
Unknown |
pythia-owt2-70m-100k 📑 | 🔶 |
0.7 |
28.78 |
20.9 |
28.34 |
25.02 |
45.12 |
53.28 |
0.0 |
Unknown |
TinyMistral-248M-v2 📑 | 🟢 |
2.5 |
28.78 |
21.25 |
26.56 |
23.39 |
49.6 |
51.85 |
0.0 |
MistralForCausalLM |
256_5epoch 📑 | 🔶 |
3.2 |
28.76 |
22.27 |
28.99 |
26.62 |
41.71 |
52.72 |
0.23 |
GPT2LMHeadModel |
Smol-Llama-101M-Chat-v1 📑 | 🔶 |
1 |
28.73 |
22.87 |
28.69 |
24.93 |
45.76 |
50.04 |
0.08 |
LlamaForCausalLM |
pythia-owt2-70m-50k 📑 | 🔶 |
0.7 |
28.71 |
21.5 |
28.15 |
25.7 |
44.5 |
52.41 |
0.0 |
Unknown |
pythia-70m-deduped-cleansharegpt-en 📑 | 🔶 |
0.7 |
28.71 |
21.16 |
27.16 |
25.24 |
48.57 |
50.12 |
0.0 |
GPTNeoXForCausalLM |
verysmol_llama-v11-KIx2 📑 | 🟢 |
0.6 |
28.7 |
22.7 |
27.6 |
25.28 |
44.75 |
51.54 |
0.3 |
LlamaForCausalLM |
facebook-opt-125m-qcqa-ub-6-best-for-KV-cache 📑 | 🟢 |
1.2 |
28.66 |
24.23 |
25.0 |
23.12 |
48.41 |
51.22 |
0.0 |
OPTForCausalLM |
nano-phi-115M-v0.1 📑 | 🟢 |
1.2 |
28.66 |
21.93 |
27.86 |
25.34 |
46.0 |
50.83 |
0.0 |
PhiForCausalLM |
distilgpt2-emailgen-V2 📑 | 🔶 |
0.9 |
28.64 |
20.99 |
26.78 |
25.53 |
46.51 |
52.01 |
0.0 |
GPT2LMHeadModel |
pythia-31m-simplewiki-scratch-bf16 📑 | 🟢 |
0.3 |
28.61 |
22.78 |
25.61 |
23.12 |
49.65 |
50.51 |
0.0 |
GPTNeoXForCausalLM |
pythia-31m-simplepile-lite-2048-scratch-2e 📑 | 🟢 |
0.3 |
28.6 |
21.59 |
25.79 |
24.99 |
50.62 |
48.62 |
0.0 |
GPTNeoXForCausalLM |
facebook-opt-6.7b-qcqa-ub-16-best-for-KV-cache 📑 | 🟢 |
67 |
28.58 |
23.81 |
27.05 |
23.12 |
46.69 |
50.83 |
0.0 |
OPTForCausalLM |
gpt2_open-platypus 📑 | 💬 |
1.2 |
28.58 |
22.18 |
31.29 |
26.19 |
40.35 |
51.3 |
0.15 |
GPT2LMHeadModel |
KoAlpaca-KoRWKV-6B 📑 | 💬 |
65.3 |
28.57 |
23.46 |
31.65 |
24.89 |
39.83 |
51.62 |
0.0 |
RwkvForCausalLM |
RWKV-4-PilePlus-169M-20230520-done-ctx4096 📑 | 🔶 |
1.3 |
28.57 |
23.98 |
32.25 |
23.37 |
42.29 |
49.17 |
0.38 |
Unknown |
chat_gpt2_dpo 📑 | 🔶 |
1.2 |
28.56 |
23.98 |
31.22 |
24.95 |
41.26 |
49.96 |
0.0 |
GPT2LMHeadModel |
falcon-1b-cot-t2 📑 | 🔶 |
13.1 |
28.56 |
24.74 |
24.75 |
23.12 |
48.38 |
50.36 |
0.0 |
FalconForCausalLM |
My_GPT2 📑 | 🔶 |
1.4 |
28.55 |
21.93 |
31.59 |
25.84 |
40.73 |
50.51 |
0.68 |
GPT2LMHeadModel |
gpt2 📑 | 🟢 |
1.4 |
28.53 |
22.01 |
31.53 |
25.83 |
40.69 |
50.43 |
0.68 |
GPT2LMHeadModel |
Quokka_590m 📑 | 🔶 |
6.7 |
28.53 |
24.4 |
31.61 |
25.36 |
39.59 |
50.2 |
0.0 |
GPT2LMHeadModel |
gpt2_guanaco-dolly-platypus 📑 | 💬 |
1.2 |
28.52 |
23.55 |
31.03 |
26.4 |
40.02 |
50.12 |
0.0 |
GPT2LMHeadModel |
gpt2_platypus-dolly-guanaco 📑 | 💬 |
1.2 |
28.51 |
23.21 |
31.04 |
26.16 |
40.31 |
50.36 |
0.0 |
GPT2LMHeadModel |
math_gpt2 📑 | 🔶 |
0 |
28.5 |
24.23 |
30.88 |
25.38 |
39.23 |
51.07 |
0.23 |
GPT2LMHeadModel |
distillgpt2Cinder 📑 | 🔶 |
0.8 |
28.5 |
24.49 |
27.24 |
24.97 |
43.96 |
50.12 |
0.23 |
GPT2LMHeadModel |
gpt_bigcode-santacoder 📑 | 🟢 |
11.2 |
28.49 |
21.16 |
30.84 |
24.97 |
45.64 |
47.83 |
0.53 |
GPTBigCodeForCausalLM |
lamini-cerebras-256m 📑 | 🔶 |
2.6 |
28.49 |
21.76 |
28.7 |
26.66 |
41.81 |
52.01 |
0.0 |
Unknown |
code_gpt2_mini_model 📑 | 🔶 |
1.2 |
28.49 |
23.72 |
31.25 |
24.96 |
39.86 |
51.14 |
0.0 |
GPT2LMHeadModel |
gpt-sw3-126m 📑 | 🟢 |
1.9 |
28.49 |
22.18 |
29.54 |
24.43 |
44.03 |
50.67 |
0.08 |
GPT2LMHeadModel |
TinyStories-Alpaca 📑 | 🔶 |
0.7 |
28.46 |
23.98 |
24.92 |
23.35 |
46.68 |
51.85 |
0.0 |
GPTNeoForCausalLM |
phi-2-upscaled-4B-instruct-v0.1 📑 | 🔶 |
40.4 |
28.45 |
22.95 |
28.68 |
26.8 |
40.92 |
50.59 |
0.76 |
PhiForCausalLM |
Mixsmol-4x400M-v0.1-epoch1 📑 | 💬 |
17.7 |
28.45 |
22.87 |
30.57 |
25.28 |
39.03 |
52.8 |
0.15 |
MixtralForCausalLM |
Mixtral-GQA-400m-v2 📑 | 🟢 |
20.1 |
28.45 |
20.22 |
27.78 |
26.1 |
46.55 |
49.96 |
0.08 |
MixtralForCausalLM |
gpt-sw3-126m 📑 | 🟢 |
1.9 |
28.45 |
22.01 |
29.56 |
24.53 |
44.07 |
50.43 |
0.08 |
GPT2LMHeadModel |
Llama-Flan-XL2base 📑 | ❓ |
20 |
28.44 |
20.65 |
25.33 |
23.19 |
50.58 |
50.91 |
0.0 |
LlamaForCausalLM |
pythia-70m-deduped 📑 | 🟢 |
1 |
28.44 |
21.08 |
27.17 |
25.26 |
47.51 |
49.64 |
0.0 |
GPTNeoXForCausalLM |
boomer-1b 📑 | 🟢 |
10 |
28.44 |
22.78 |
31.58 |
25.66 |
39.17 |
50.51 |
0.91 |
LlamaForCausalLM |
TinyMistral-v2-Test1 📑 | 🟢 |
0 |
28.42 |
21.5 |
26.79 |
23.36 |
50.3 |
48.54 |
0.0 |
MistralForCausalLM |
gpt2_camel_physics-platypus 📑 | 💬 |
1.2 |
28.41 |
23.04 |
31.32 |
26.91 |
39.56 |
49.64 |
0.0 |
GPT2LMHeadModel |
gpt2_platypus-camel_physics 📑 | 💬 |
1.2 |
28.41 |
23.04 |
31.32 |
26.91 |
39.56 |
49.64 |
0.0 |
Unknown |
gpt2_test 📑 | 🟢 |
1.4 |
28.4 |
21.84 |
31.6 |
25.86 |
40.67 |
50.12 |
0.3 |
GPT2LMHeadModel |
finetuned-gpt2-tiny 📑 | 🔶 |
0 |
28.4 |
21.84 |
31.6 |
25.86 |
40.67 |
50.12 |
0.3 |
GPT2LMHeadModel |
gpt2_platypus-camel_physics 📑 | 💬 |
1.2 |
28.4 |
22.78 |
31.24 |
25.87 |
38.95 |
51.54 |
0.0 |
Unknown |
lamini-cerebras-590m 📑 | ❓ |
5.9 |
28.38 |
24.32 |
31.58 |
25.57 |
40.72 |
47.91 |
0.15 |
Unknown |
facebook-opt-125m-qcqa-ub-6-best-for-q-loss 📑 | 🟢 |
1.2 |
28.37 |
23.29 |
25.57 |
23.15 |
49.03 |
49.17 |
0.0 |
OPTForCausalLM |
gpt2-alpaca-gpt4 📑 | 🔶 |
1.4 |
28.34 |
22.61 |
31.17 |
25.76 |
38.04 |
52.17 |
0.3 |
GPT2LMHeadModel |
Quokka_256m 📑 | 🔶 |
3.2 |
28.32 |
22.87 |
28.84 |
26.48 |
39.47 |
52.25 |
0.0 |
GPT2LMHeadModel |
convo_bot_gpt_v1 📑 | 🔶 |
0 |
28.3 |
22.35 |
31.07 |
26.12 |
38.71 |
51.54 |
0.0 |
GPT2LMHeadModel |
GPT-2-SlimOrcaDeduped-airoboros-3.1-MetaMathQA-SFT-124M 📑 | 💬 |
1.2 |
28.3 |
24.57 |
29.43 |
25.82 |
38.84 |
49.01 |
2.12 |
Unknown |
pythia-31m 📑 | 🟢 |
0.3 |
28.3 |
19.97 |
26.34 |
24.27 |
50.12 |
49.09 |
0.0 |
GPTNeoXForCausalLM |
dlite-v2-124m 📑 | 🔶 |
1.2 |
28.3 |
23.98 |
31.1 |
25.29 |
38.98 |
50.43 |
0.0 |
GPT2LMHeadModel |
ko-wand-136M 📑 | 🟢 |
1.4 |
28.29 |
21.33 |
25.0 |
23.58 |
50.68 |
49.17 |
0.0 |
MistralForCausalLM |
lamini-cerebras-111m 📑 | 🔶 |
1.1 |
28.29 |
22.1 |
27.12 |
25.51 |
43.79 |
51.22 |
0.0 |
Unknown |
pythia-31m-simplewiki-2048 📑 | 🟢 |
0.3 |
28.27 |
22.18 |
25.55 |
23.12 |
49.37 |
49.41 |
0.0 |
GPTNeoXForCausalLM |
facebook-opt-6.7b-qcqa-ub-16-best-for-q-loss 📑 | 🟢 |
67 |
28.25 |
21.67 |
26.65 |
23.15 |
46.81 |
51.22 |
0.0 |
OPTForCausalLM |
open-calm-7b 📑 | 🔶 |
70 |
28.21 |
20.48 |
30.65 |
25.22 |
44.15 |
48.54 |
0.23 |
GPTNeoXForCausalLM |
gpt2023 📑 | 🔶 |
1.4 |
28.2 |
21.93 |
31.11 |
25.05 |
40.71 |
50.12 |
0.3 |
GPT2LMHeadModel |
gpt-sw3-126m-instruct 📑 | 💬 |
1.9 |
28.2 |
23.38 |
29.88 |
23.78 |
42.65 |
48.54 |
0.99 |
GPT2LMHeadModel |
TinyMistral-248M-SFT-v4 📑 | 💬 |
2.5 |
28.2 |
24.91 |
28.15 |
26.04 |
39.56 |
50.51 |
0.0 |
MistralForCausalLM |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | test_mistral2 📑 🔶 |
参数大小: |
71.1 |
平均分: |
29.27 |
模型名称: | gpt2-dolly 📑 💬 |
参数大小: |
1.2 |
平均分: |
29.21 |
模型名称: | Pythia-70M-ChatSalad 📑 🔶 |
参数大小: |
1 |
平均分: |
29.2 |
模型名称: | smol_llama-220M-open_instruct 📑 💬 |
参数大小: |
2.2 |
平均分: |
29.19 |
模型名称: | DialoGPT-small 📑 🔶 |
参数大小: |
1.8 |
平均分: |
29.19 |
模型名称: | mistral-environment-all 📑 🔶 |
参数大小: |
72.4 |
平均分: |
29.18 |
模型名称: | testfinetunedmodel 📑 🔶 |
参数大小: |
1.2 |
平均分: |
29.18 |
模型名称: | TinyMistral-v2.5-MiniPile-Guidelines-E1 📑 🟢 |
参数大小: |
0 |
平均分: |
29.16 |
模型名称: | TinyMistral-v2.5-MiniPile-Guidelines-E1 📑 🟢 |
参数大小: |
0 |
平均分: |
29.15 |
模型名称: | pythia-31m-KI_v1-2048-scratch 📑 🟢 |
参数大小: |
0.3 |
平均分: |
29.15 |
模型名称: | opt-125m 📑 🟢 |
参数大小: |
1.2 |
平均分: |
29.15 |
模型名称: | gpt-neo-125m-neurallinguisticpioneers 📑 🔶 |
参数大小: |
1.2 |
平均分: |
29.15 |
模型名称: | Cerebras-GPT-590M 📑 ❓ |
参数大小: |
5.9 |
平均分: |
29.14 |
模型名称: | Llama-2-7b-Chat-AWQ 📑 🔶 |
参数大小: |
11.3 |
平均分: |
29.14 |
模型名称: | TinyYi-7b-Test 📑 🔶 |
参数大小: |
60.6 |
平均分: |
29.11 |
模型名称: | gpt3-finnish-large 📑 🟢 |
参数大小: |
0 |
平均分: |
29.11 |
模型名称: | gpt-neox-122m-minipile-digits 📑 🔶 |
参数大小: |
1.7 |
平均分: |
29.1 |
模型名称: | 160M-TinyLLama-Mini-Cinder 📑 🔶 |
参数大小: |
1.4 |
平均分: |
29.09 |
模型名称: | mpt-1b-redpajama-200b 📑 🔶 |
参数大小: |
10 |
平均分: |
29.05 |
模型名称: | pythia-160m 📑 🟢 |
参数大小: |
2.1 |
平均分: |
29.02 |
模型名称: | gpt2-conversational-or-qa 📑 🔶 |
参数大小: |
1.4 |
平均分: |
29.01 |
模型名称: | hepu-o4zf-ravz-7-0 📑 🔶 |
参数大小: |
72.4 |
平均分: |
29.01 |
模型名称: | SmolLlamix-8x101M 📑 🟢 |
参数大小: |
4 |
平均分: |
28.98 |
模型名称: | smol_llama-101M-GQA 📑 🟢 |
参数大小: |
1 |
平均分: |
28.97 |
模型名称: | smol_llama-101M-GQA 📑 🔶 |
参数大小: |
1 |
平均分: |
28.96 |
模型名称: | OPT-19M-ChatSalad 📑 🔶 |
参数大小: |
0.2 |
平均分: |
28.96 |
模型名称: | pythia-70m 📑 🟢 |
参数大小: |
1 |
平均分: |
28.93 |
模型名称: | opt-125m-gqa-ub-6-best-for-KV-cache 📑 🟢 |
参数大小: |
1.2 |
平均分: |
28.93 |
模型名称: | Mixsmol-4x400M-v0.1-epoch2 📑 🟢 |
参数大小: |
17.7 |
平均分: |
28.92 |
模型名称: | 590m 📑 ❓ |
参数大小: |
6.7 |
平均分: |
28.88 |
模型名称: | open-calm-large 📑 🟢 |
参数大小: |
0 |
平均分: |
28.88 |
模型名称: | gpt2_137m_DolphinCoder 📑 🔶 |
参数大小: |
1.4 |
平均分: |
28.87 |
模型名称: | gpt2_137m_DolphinCoder 📑 🔶 |
参数大小: |
1.4 |
平均分: |
28.87 |
模型名称: | DialoGPT-medium 📑 🔶 |
参数大小: |
0 |
平均分: |
28.86 |
模型名称: | easyTermsSummerizer 📑 🔶 |
参数大小: |
4.1 |
平均分: |
28.86 |
模型名称: | FinOPT-Washington 📑 🔶 |
参数大小: |
1.2 |
平均分: |
28.85 |
模型名称: | pythia-31m-goodwiki-deduped-2048-scratch 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.85 |
模型名称: | distilgpt2-emailgen 📑 🔶 |
参数大小: |
0.9 |
平均分: |
28.84 |
模型名称: | facebook-opt-6.7b-gqa-ub-16-best-for-KV-cache 📑 🟢 |
参数大小: |
67 |
平均分: |
28.84 |
模型名称: | pythia-31m 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.81 |
模型名称: | Yi-8B-Llama 📑 ❓ |
参数大小: |
87.3 |
平均分: |
28.78 |
模型名称: | pythia-owt2-70m-100k 📑 🔶 |
参数大小: |
0.7 |
平均分: |
28.78 |
模型名称: | TinyMistral-248M-v2 📑 🟢 |
参数大小: |
2.5 |
平均分: |
28.78 |
模型名称: | 256_5epoch 📑 🔶 |
参数大小: |
3.2 |
平均分: |
28.76 |
模型名称: | Smol-Llama-101M-Chat-v1 📑 🔶 |
参数大小: |
1 |
平均分: |
28.73 |
模型名称: | pythia-owt2-70m-50k 📑 🔶 |
参数大小: |
0.7 |
平均分: |
28.71 |
模型名称: | pythia-70m-deduped-cleansharegpt-en 📑 🔶 |
参数大小: |
0.7 |
平均分: |
28.71 |
模型名称: | verysmol_llama-v11-KIx2 📑 🟢 |
参数大小: |
0.6 |
平均分: |
28.7 |
模型名称: | facebook-opt-125m-qcqa-ub-6-best-for-KV-cache 📑 🟢 |
参数大小: |
1.2 |
平均分: |
28.66 |
模型名称: | nano-phi-115M-v0.1 📑 🟢 |
参数大小: |
1.2 |
平均分: |
28.66 |
模型名称: | distilgpt2-emailgen-V2 📑 🔶 |
参数大小: |
0.9 |
平均分: |
28.64 |
模型名称: | pythia-31m-simplewiki-scratch-bf16 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.61 |
模型名称: | pythia-31m-simplepile-lite-2048-scratch-2e 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.6 |
模型名称: | facebook-opt-6.7b-qcqa-ub-16-best-for-KV-cache 📑 🟢 |
参数大小: |
67 |
平均分: |
28.58 |
模型名称: | gpt2_open-platypus 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.58 |
模型名称: | KoAlpaca-KoRWKV-6B 📑 💬 |
参数大小: |
65.3 |
平均分: |
28.57 |
模型名称: | RWKV-4-PilePlus-169M-20230520-done-ctx4096 📑 🔶 |
参数大小: |
1.3 |
平均分: |
28.57 |
模型名称: | chat_gpt2_dpo 📑 🔶 |
参数大小: |
1.2 |
平均分: |
28.56 |
模型名称: | falcon-1b-cot-t2 📑 🔶 |
参数大小: |
13.1 |
平均分: |
28.56 |
模型名称: | My_GPT2 📑 🔶 |
参数大小: |
1.4 |
平均分: |
28.55 |
模型名称: | gpt2 📑 🟢 |
参数大小: |
1.4 |
平均分: |
28.53 |
模型名称: | Quokka_590m 📑 🔶 |
参数大小: |
6.7 |
平均分: |
28.53 |
模型名称: | gpt2_guanaco-dolly-platypus 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.52 |
模型名称: | gpt2_platypus-dolly-guanaco 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.51 |
模型名称: | math_gpt2 📑 🔶 |
参数大小: |
0 |
平均分: |
28.5 |
模型名称: | distillgpt2Cinder 📑 🔶 |
参数大小: |
0.8 |
平均分: |
28.5 |
模型名称: | gpt_bigcode-santacoder 📑 🟢 |
参数大小: |
11.2 |
平均分: |
28.49 |
模型名称: | lamini-cerebras-256m 📑 🔶 |
参数大小: |
2.6 |
平均分: |
28.49 |
模型名称: | code_gpt2_mini_model 📑 🔶 |
参数大小: |
1.2 |
平均分: |
28.49 |
模型名称: | gpt-sw3-126m 📑 🟢 |
参数大小: |
1.9 |
平均分: |
28.49 |
模型名称: | TinyStories-Alpaca 📑 🔶 |
参数大小: |
0.7 |
平均分: |
28.46 |
模型名称: | phi-2-upscaled-4B-instruct-v0.1 📑 🔶 |
参数大小: |
40.4 |
平均分: |
28.45 |
模型名称: | Mixsmol-4x400M-v0.1-epoch1 📑 💬 |
参数大小: |
17.7 |
平均分: |
28.45 |
模型名称: | Mixtral-GQA-400m-v2 📑 🟢 |
参数大小: |
20.1 |
平均分: |
28.45 |
模型名称: | gpt-sw3-126m 📑 🟢 |
参数大小: |
1.9 |
平均分: |
28.45 |
模型名称: | Llama-Flan-XL2base 📑 ❓ |
参数大小: |
20 |
平均分: |
28.44 |
模型名称: | pythia-70m-deduped 📑 🟢 |
参数大小: |
1 |
平均分: |
28.44 |
模型名称: | boomer-1b 📑 🟢 |
参数大小: |
10 |
平均分: |
28.44 |
模型名称: | TinyMistral-v2-Test1 📑 🟢 |
参数大小: |
0 |
平均分: |
28.42 |
模型名称: | gpt2_camel_physics-platypus 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.41 |
模型名称: | gpt2_platypus-camel_physics 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.41 |
模型名称: | gpt2_test 📑 🟢 |
参数大小: |
1.4 |
平均分: |
28.4 |
模型名称: | finetuned-gpt2-tiny 📑 🔶 |
参数大小: |
0 |
平均分: |
28.4 |
模型名称: | gpt2_platypus-camel_physics 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.4 |
模型名称: | lamini-cerebras-590m 📑 ❓ |
参数大小: |
5.9 |
平均分: |
28.38 |
模型名称: | facebook-opt-125m-qcqa-ub-6-best-for-q-loss 📑 🟢 |
参数大小: |
1.2 |
平均分: |
28.37 |
模型名称: | gpt2-alpaca-gpt4 📑 🔶 |
参数大小: |
1.4 |
平均分: |
28.34 |
模型名称: | Quokka_256m 📑 🔶 |
参数大小: |
3.2 |
平均分: |
28.32 |
模型名称: | convo_bot_gpt_v1 📑 🔶 |
参数大小: |
0 |
平均分: |
28.3 |
模型名称: | GPT-2-SlimOrcaDeduped-airoboros-3.1-MetaMathQA-SFT-124M 📑 💬 |
参数大小: |
1.2 |
平均分: |
28.3 |
模型名称: | pythia-31m 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.3 |
模型名称: | dlite-v2-124m 📑 🔶 |
参数大小: |
1.2 |
平均分: |
28.3 |
模型名称: | ko-wand-136M 📑 🟢 |
参数大小: |
1.4 |
平均分: |
28.29 |
模型名称: | lamini-cerebras-111m 📑 🔶 |
参数大小: |
1.1 |
平均分: |
28.29 |
模型名称: | pythia-31m-simplewiki-2048 📑 🟢 |
参数大小: |
0.3 |
平均分: |
28.27 |
模型名称: | facebook-opt-6.7b-qcqa-ub-16-best-for-q-loss 📑 🟢 |
参数大小: |
67 |
平均分: |
28.25 |
模型名称: | open-calm-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
28.21 |
模型名称: | gpt2023 📑 🔶 |
参数大小: |
1.4 |
平均分: |
28.2 |
模型名称: | gpt-sw3-126m-instruct 📑 💬 |
参数大小: |
1.9 |
平均分: |
28.2 |
模型名称: | TinyMistral-248M-SFT-v4 📑 💬 |
参数大小: |
2.5 |
平均分: |
28.2 |