🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
Mistralic-7B-1 📑 | 🔶 |
71.1 |
57.4 |
60.84 |
82.29 |
60.8 |
52.38 |
77.03 |
11.07 |
Unknown |
digital-socrates-13b 📑 | 🔶 |
130 |
57.34 |
58.36 |
80.14 |
57.01 |
44.47 |
74.59 |
29.49 |
LlamaForCausalLM |
VicUnlocked-30B-LoRA-HF 📑 | ❓ |
300 |
57.33 |
59.73 |
84.02 |
57.81 |
48.54 |
79.48 |
14.4 |
LlamaForCausalLM |
airoboros-33b-gpt4 📑 | ❓ |
330 |
57.32 |
63.74 |
84.87 |
58.54 |
47.06 |
77.03 |
12.66 |
LlamaForCausalLM |
BrainDerp2 📑 | 🔶 |
130.2 |
57.32 |
60.92 |
81.94 |
58.9 |
57.19 |
75.93 |
9.02 |
LlamaForCausalLM |
OpenOrca-Platypus2-13B-QLoRA-0.80-epoch 📑 | 💬 |
130.2 |
57.31 |
62.37 |
82.99 |
59.38 |
52.2 |
75.77 |
11.14 |
Unknown |
LLaMA_2_13B_SFT_v0 📑 | 🔶 |
130 |
57.31 |
62.03 |
83.8 |
58.39 |
49.92 |
77.27 |
12.43 |
LlamaForCausalLM |
CodeLlama-34b-Instruct-hf 📑 | 🔶 |
337.4 |
57.29 |
54.27 |
76.92 |
55.54 |
44.44 |
74.59 |
37.98 |
LlamaForCausalLM |
OpenOrca-Platypus2-13B 📑 | 🔶 |
130 |
57.28 |
62.8 |
83.15 |
59.39 |
53.08 |
76.24 |
9.02 |
LlamaForCausalLM |
2x-LoRA-Assemble-Nova-13B 📑 | 💬 |
130.2 |
57.26 |
62.63 |
83.24 |
58.64 |
51.88 |
76.95 |
10.24 |
Unknown |
MLewd-ReMM-L2-Chat-20B-Inverted 📑 | 🔶 |
199.9 |
57.25 |
61.69 |
85.32 |
58.0 |
53.77 |
75.61 |
9.1 |
LlamaForCausalLM |
Giraffe-13b-32k-v3 📑 | 💬 |
130.2 |
57.24 |
59.04 |
79.59 |
55.01 |
46.68 |
76.95 |
26.16 |
LlamaForCausalLM |
orca_mini_v3_13b 📑 | 🔶 |
128.5 |
57.24 |
63.14 |
82.35 |
56.52 |
51.81 |
76.48 |
13.12 |
Unknown |
orca_mini_v3_13b 📑 | 💬 |
130 |
57.24 |
63.14 |
82.35 |
56.52 |
51.81 |
76.48 |
13.12 |
LlamaForCausalLM |
MLewd-Chat-v2-13B 📑 | 🔶 |
130 |
57.23 |
61.86 |
83.81 |
57.0 |
54.51 |
75.77 |
10.46 |
LlamaForCausalLM |
Athena-v4 📑 | 🔶 |
130.2 |
57.23 |
62.54 |
84.19 |
57.33 |
50.87 |
76.48 |
11.98 |
LlamaForCausalLM |
airoboros-33b-2.1 📑 | 💬 |
330 |
57.16 |
63.65 |
84.97 |
57.37 |
52.17 |
78.22 |
6.6 |
LlamaForCausalLM |
airoboros-33b-gpt4-m2.0 📑 | 🔶 |
330 |
57.16 |
64.68 |
84.95 |
57.77 |
47.44 |
77.74 |
10.39 |
LlamaForCausalLM |
BrainDerp3 📑 | 🔶 |
130.2 |
57.13 |
60.92 |
82.1 |
58.91 |
57.18 |
75.61 |
8.04 |
LlamaForCausalLM |
BrainDerp 📑 | 🔶 |
130.2 |
57.11 |
60.75 |
82.1 |
58.81 |
56.9 |
75.85 |
8.26 |
LlamaForCausalLM |
SOLID-SFT-WoDPO-MixQV2-Zephyr-7b-beta 📑 | 🔶 |
72.4 |
57.1 |
59.73 |
81.72 |
60.47 |
53.77 |
74.66 |
12.28 |
MistralForCausalLM |
ReMM-v2.2-L2-13B 📑 | 🔶 |
130.2 |
57.1 |
61.26 |
84.16 |
56.22 |
51.35 |
75.61 |
14.03 |
LlamaForCausalLM |
Athena-v3 📑 | 🔶 |
0 |
57.09 |
61.69 |
84.34 |
57.87 |
51.26 |
75.77 |
11.6 |
LlamaForCausalLM |
vicuna-33b-coder 📑 | 🔶 |
330 |
57.07 |
60.41 |
83.27 |
57.17 |
51.79 |
76.87 |
12.89 |
LlamaForCausalLM |
Emerhyst-20B 📑 | 🔶 |
199.9 |
57.07 |
61.69 |
84.98 |
56.98 |
54.16 |
76.09 |
8.49 |
LlamaForCausalLM |
Llama-2-13b-orca-v1 📑 | 🔶 |
130 |
57.05 |
62.03 |
82.27 |
57.71 |
49.61 |
76.87 |
13.8 |
LlamaForCausalLM |
airoboros-33b-gpt4-m2.0 📑 | 🔶 |
330 |
57.03 |
63.4 |
85.19 |
57.46 |
48.15 |
78.37 |
9.63 |
LlamaForCausalLM |
zephyr-beta-Nebula-v2-7B 📑 | 🔶 |
72.4 |
57.03 |
56.57 |
82.53 |
56.4 |
58.68 |
70.48 |
17.51 |
MistralForCausalLM |
airoboros-33b-gpt4-2.0 📑 | 🔶 |
330 |
57.02 |
63.91 |
85.67 |
57.95 |
45.54 |
77.98 |
11.07 |
LlamaForCausalLM |
wendigo-14b-alpha2 📑 | 🔶 |
142.2 |
57.02 |
56.66 |
77.19 |
58.0 |
53.71 |
73.64 |
22.9 |
Unknown |
synapsellm-7b-mistral-v0.3-preview 📑 | 🔶 |
72.4 |
57.01 |
53.84 |
74.86 |
54.81 |
55.03 |
74.59 |
28.96 |
MistralForCausalLM |
wendigo-14b-alpha1 📑 | 🔶 |
142.2 |
57.01 |
56.48 |
77.2 |
57.83 |
53.76 |
73.01 |
23.81 |
Unknown |
airoboros-33b-gpt4-2.0 📑 | 🔶 |
330 |
57.01 |
63.82 |
85.65 |
58.44 |
45.57 |
77.9 |
10.69 |
LlamaForCausalLM |
YuLan-Chat-2-13b-fp16 📑 | 💬 |
130 |
57.01 |
59.04 |
80.66 |
56.72 |
52.18 |
79.64 |
13.8 |
LlamaForCausalLM |
ReMM-v2-L2-13B 📑 | 🔶 |
130.2 |
56.99 |
61.95 |
84.0 |
56.14 |
50.81 |
75.85 |
13.19 |
LlamaForCausalLM |
AISquare-Instruct-llama2-koen-13b-v0.9.24 📑 | 💬 |
131.6 |
56.98 |
55.63 |
81.35 |
51.76 |
53.0 |
76.95 |
23.2 |
LlamaForCausalLM |
OpenOrca-Platypus2-13B-GPTQ 📑 | 🔶 |
162.4 |
56.98 |
62.54 |
82.67 |
58.56 |
51.93 |
76.8 |
9.4 |
LlamaForCausalLM |
GenAI-Nova-13B 📑 | 💬 |
130.2 |
56.98 |
62.29 |
83.27 |
59.47 |
51.79 |
77.35 |
7.73 |
Unknown |
airoboros-33b-gpt4-m2.0 📑 | 🔶 |
330 |
56.97 |
63.14 |
85.19 |
57.28 |
48.07 |
78.45 |
9.7 |
LlamaForCausalLM |
llama-30b 📑 | ❓ |
325.3 |
56.96 |
61.43 |
84.73 |
58.45 |
42.27 |
80.03 |
14.86 |
LlamaForCausalLM |
llama-30B-hf-openassitant 📑 | 🔶 |
300 |
56.94 |
61.26 |
84.73 |
58.47 |
42.27 |
80.03 |
14.86 |
LlamaForCausalLM |
CantoneseLLM-6B-preview202402 📑 | 🟢 |
60.6 |
56.93 |
55.63 |
75.8 |
63.07 |
42.26 |
74.11 |
30.71 |
LlamaForCausalLM |
UndiMix-v4-13B 📑 | 🔶 |
130.2 |
56.93 |
61.95 |
83.88 |
56.9 |
48.96 |
76.16 |
13.72 |
LlamaForCausalLM |
LosslessMegaCoder-llama2-13b-mini 📑 | 💬 |
130 |
56.92 |
60.58 |
81.26 |
57.92 |
48.89 |
76.95 |
15.92 |
LlamaForCausalLM |
Llama-2-13b-orca-v1 📑 | 🔶 |
130 |
56.91 |
62.2 |
82.32 |
57.67 |
49.6 |
76.8 |
12.89 |
LlamaForCausalLM |
Emerald-13B 📑 | 🔶 |
130 |
56.89 |
62.29 |
83.69 |
55.7 |
50.94 |
75.93 |
12.81 |
LlamaForCausalLM |
ghost-7b-v0.9.0 📑 | 💬 |
72.4 |
56.89 |
53.07 |
77.93 |
55.09 |
47.79 |
73.72 |
33.74 |
MistralForCausalLM |
ReMM-Mistral-13B 📑 | 🔶 |
128.5 |
56.89 |
62.2 |
83.82 |
55.43 |
53.32 |
74.51 |
12.05 |
Unknown |
Instruct_Yi-6B_Dolly15K 📑 | 🔶 |
60.6 |
56.85 |
54.86 |
75.87 |
63.37 |
42.84 |
74.9 |
29.26 |
LlamaForCausalLM |
OpenOrcaxOpenChat-Preview2-13B-GPTQ 📑 | 🔶 |
162.4 |
56.84 |
61.26 |
82.14 |
57.85 |
50.22 |
77.11 |
12.43 |
LlamaForCausalLM |
Barcenas-Orca-2-7b 📑 | 🔶 |
67.4 |
56.81 |
55.2 |
77.08 |
56.02 |
43.72 |
75.53 |
33.28 |
LlamaForCausalLM |
SOLID_SFT-WoDPO-WoMixQ 📑 | 🔶 |
72.4 |
56.8 |
59.64 |
81.69 |
60.1 |
55.25 |
74.66 |
9.48 |
MistralForCausalLM |
TIGERScore-13B 📑 | 🔶 |
130.2 |
56.79 |
59.04 |
82.79 |
55.07 |
40.38 |
74.74 |
28.73 |
LlamaForCausalLM |
Orca-2-13b-SFT_v5 📑 | 🔶 |
130.2 |
56.77 |
59.22 |
80.09 |
60.19 |
51.84 |
80.9 |
8.42 |
LlamaForCausalLM |
Yi-6B-200K ✅ 📑 | 🟢 |
60.6 |
56.76 |
53.75 |
75.57 |
64.65 |
41.56 |
73.64 |
31.39 |
LlamaForCausalLM |
Orca-Nova-13B 📑 | 💬 |
130.2 |
56.72 |
62.37 |
82.47 |
57.44 |
45.97 |
77.58 |
14.48 |
Unknown |
ReMM-v2.1-L2-13B 📑 | 🔶 |
130.2 |
56.71 |
61.43 |
83.92 |
55.95 |
50.3 |
75.93 |
12.74 |
LlamaForCausalLM |
OpenOrcaxOpenChat-Preview2-13B 📑 | 🔶 |
130 |
56.7 |
62.71 |
81.99 |
57.51 |
47.45 |
76.8 |
13.72 |
LlamaForCausalLM |
Yi-6B-200K ✅ 📑 | 🟢 |
60.6 |
56.69 |
53.58 |
75.58 |
64.65 |
41.74 |
74.27 |
30.33 |
LlamaForCausalLM |
test3_sft_4bit 📑 | 🔶 |
72.4 |
56.66 |
61.52 |
83.89 |
64.79 |
47.83 |
81.93 |
0.0 |
MistralForCausalLM |
storytime-13b 📑 | 💬 |
130.2 |
56.64 |
62.03 |
83.96 |
57.48 |
52.5 |
75.53 |
8.34 |
LlamaForCausalLM |
Amethyst-13B 📑 | 🔶 |
130 |
56.62 |
62.63 |
83.17 |
55.91 |
52.43 |
74.74 |
10.84 |
LlamaForCausalLM |
Amethyst-13B-Mistral 📑 | 🔶 |
128.5 |
56.62 |
62.63 |
83.17 |
55.91 |
52.43 |
74.74 |
10.84 |
Unknown |
BELLE-Llama2-13B-chat-0.4M 📑 | 🔶 |
130 |
56.62 |
60.67 |
82.31 |
55.94 |
50.85 |
75.53 |
14.4 |
LlamaForCausalLM |
Clover3-17B 📑 | 🔶 |
168.4 |
56.61 |
59.9 |
81.18 |
60.47 |
40.72 |
78.61 |
18.8 |
MistralForCausalLM |
chronos-33b 📑 | 🔶 |
330 |
56.59 |
62.2 |
83.48 |
55.87 |
46.67 |
78.3 |
13.04 |
LlamaForCausalLM |
LlongOrca-13B-16k 📑 | 🔶 |
130 |
56.59 |
62.46 |
82.75 |
55.54 |
50.11 |
76.4 |
12.28 |
LlamaForCausalLM |
llama2-13b-megacode2-oasst 📑 | 🔶 |
130 |
56.59 |
60.67 |
81.93 |
57.38 |
47.85 |
76.16 |
15.54 |
LlamaForCausalLM |
Novocode7b-v2 📑 | 🔶 |
72.4 |
56.57 |
61.01 |
84.12 |
64.05 |
42.21 |
79.87 |
8.19 |
MistralForCausalLM |
NyakuraV2.1-m7 📑 | 🔶 |
0 |
56.57 |
58.62 |
81.89 |
58.46 |
45.01 |
72.77 |
22.67 |
MistralForCausalLM |
OpenRP-13B 📑 | 🔶 |
130 |
56.57 |
62.12 |
82.6 |
57.5 |
48.29 |
76.01 |
12.89 |
LlamaForCausalLM |
MM-ReMM-L2-20B 📑 | 🔶 |
199.9 |
56.55 |
60.84 |
85.18 |
56.45 |
53.33 |
75.77 |
7.73 |
LlamaForCausalLM |
BerrySauce-L2-13b 📑 | 🔶 |
130.2 |
56.55 |
62.29 |
83.78 |
57.1 |
48.3 |
76.09 |
11.75 |
LlamaForCausalLM |
MLewdBoros-L2-13B 📑 | 🔶 |
130.2 |
56.51 |
62.54 |
83.9 |
56.57 |
48.14 |
76.95 |
10.99 |
LlamaForCausalLM |
EnsembleV5-Nova-13B 📑 | 💬 |
130.2 |
56.49 |
62.71 |
82.55 |
56.79 |
49.86 |
76.24 |
10.77 |
Unknown |
EnsembleV5-Nova-13B 📑 | 💬 |
130.2 |
56.49 |
62.71 |
82.55 |
56.79 |
49.86 |
76.24 |
10.77 |
Unknown |
mythalion-13b 📑 | 🔶 |
130.2 |
56.48 |
61.26 |
83.81 |
56.53 |
46.56 |
77.43 |
13.27 |
LlamaForCausalLM |
SOLAR_KO_1.3_deup 📑 | 💬 |
108.5 |
56.47 |
55.97 |
79.97 |
55.88 |
47.55 |
76.87 |
22.59 |
LlamaForCausalLM |
speechless-code-mistral-7b-v2.0 📑 | 🔶 |
70 |
56.47 |
52.47 |
75.61 |
51.31 |
52.05 |
71.43 |
35.94 |
MistralForCausalLM |
WizardLM-30B-Uncensored 📑 | 🔶 |
323.2 |
56.46 |
60.24 |
82.93 |
56.8 |
51.57 |
74.35 |
12.89 |
Unknown |
SciPhi-Self-RAG-Mistral-7B-32k 📑 | 🔶 |
70 |
56.46 |
57.34 |
80.44 |
60.81 |
45.63 |
74.82 |
19.71 |
MistralForCausalLM |
Pygmalion-2-13b-SuperCOT 📑 | 🔶 |
130.2 |
56.46 |
63.23 |
83.68 |
54.9 |
53.14 |
77.51 |
6.29 |
LlamaForCausalLM |
Stheno-Inverted-L2-13B 📑 | 🔶 |
130 |
56.44 |
59.3 |
82.9 |
56.45 |
52.04 |
74.74 |
13.19 |
LlamaForCausalLM |
Nova-13B 📑 | 💬 |
130.2 |
56.44 |
62.71 |
82.57 |
57.98 |
51.34 |
77.27 |
6.75 |
Unknown |
Stheno-L2-13B 📑 | 🔶 |
130 |
56.43 |
61.01 |
83.95 |
56.33 |
50.18 |
75.14 |
11.98 |
LlamaForCausalLM |
Mythical-Destroyer-L2-13B 📑 | 🔶 |
130.2 |
56.39 |
58.7 |
82.0 |
57.66 |
56.35 |
74.66 |
8.95 |
LlamaForCausalLM |
llama2_7b_merge_orcafamily 📑 | 🔶 |
67.4 |
56.38 |
56.91 |
81.17 |
51.49 |
49.68 |
75.93 |
23.12 |
LlamaForCausalLM |
Dans-AdventurousWinds-Mk2-7b 📑 | 🔶 |
72.4 |
56.38 |
58.19 |
83.48 |
61.8 |
43.56 |
76.32 |
14.94 |
MistralForCausalLM |
MLewd-v2.4-13B 📑 | 🔶 |
130 |
56.37 |
61.69 |
83.83 |
55.1 |
53.34 |
74.51 |
9.78 |
LlamaForCausalLM |
speechless-code-mistral-7b-v2.0 📑 | 🔶 |
70 |
56.37 |
52.3 |
75.61 |
51.28 |
52.05 |
71.35 |
35.63 |
MistralForCausalLM |
airoboros-l2-13b-2.2.1 📑 | 💬 |
130 |
56.36 |
60.92 |
83.77 |
56.47 |
49.42 |
76.01 |
11.6 |
LlamaForCausalLM |
openchat_v3.1 📑 | 🔶 |
0 |
56.36 |
59.81 |
82.8 |
56.76 |
44.45 |
76.24 |
18.12 |
LlamaForCausalLM |
internlm2-math-20b-llama 📑 | 🔶 |
198.6 |
56.35 |
59.98 |
81.64 |
65.07 |
52.9 |
76.4 |
2.12 |
LlamaForCausalLM |
LLAMA-13B-test-finetuning 📑 | 🔶 |
130.2 |
56.34 |
58.02 |
82.36 |
54.27 |
44.14 |
76.72 |
22.52 |
Unknown |
MythoMix-L2-13b 📑 | 🔶 |
130 |
56.31 |
61.09 |
83.86 |
55.42 |
52.08 |
75.45 |
9.93 |
LlamaForCausalLM |
mistral-7b_open_platypus 📑 | 💬 |
70 |
56.29 |
55.8 |
82.13 |
59.76 |
48.87 |
78.61 |
12.59 |
MistralForCausalLM |
Uncensored-Jordan-13B 📑 | 🔶 |
130 |
56.27 |
57.42 |
82.7 |
55.75 |
50.51 |
76.16 |
15.09 |
LlamaForCausalLM |
speechless-code-mistral-orca-7b-v1.0 📑 | 🔶 |
70 |
56.24 |
59.64 |
82.25 |
61.33 |
48.45 |
77.51 |
8.26 |
MistralForCausalLM |
MythoLogic-L2-13b 📑 | 🔶 |
130 |
56.19 |
61.01 |
83.93 |
55.7 |
48.64 |
76.09 |
11.75 |
LlamaForCausalLM |
Synatra-11B-Testbench 📑 | 💬 |
110 |
56.17 |
57.34 |
78.66 |
55.56 |
51.97 |
75.77 |
17.74 |
Unknown |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | Mistralic-7B-1 📑 🔶 |
参数大小: |
71.1 |
平均分: |
57.4 |
模型名称: | digital-socrates-13b 📑 🔶 |
参数大小: |
130 |
平均分: |
57.34 |
模型名称: | VicUnlocked-30B-LoRA-HF 📑 ❓ |
参数大小: |
300 |
平均分: |
57.33 |
模型名称: | airoboros-33b-gpt4 📑 ❓ |
参数大小: |
330 |
平均分: |
57.32 |
模型名称: | BrainDerp2 📑 🔶 |
参数大小: |
130.2 |
平均分: |
57.32 |
模型名称: | OpenOrca-Platypus2-13B-QLoRA-0.80-epoch 📑 💬 |
参数大小: |
130.2 |
平均分: |
57.31 |
模型名称: | LLaMA_2_13B_SFT_v0 📑 🔶 |
参数大小: |
130 |
平均分: |
57.31 |
模型名称: | CodeLlama-34b-Instruct-hf 📑 🔶 |
参数大小: |
337.4 |
平均分: |
57.29 |
模型名称: | OpenOrca-Platypus2-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
57.28 |
模型名称: | 2x-LoRA-Assemble-Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
57.26 |
模型名称: | MLewd-ReMM-L2-Chat-20B-Inverted 📑 🔶 |
参数大小: |
199.9 |
平均分: |
57.25 |
模型名称: | Giraffe-13b-32k-v3 📑 💬 |
参数大小: |
130.2 |
平均分: |
57.24 |
模型名称: | orca_mini_v3_13b 📑 🔶 |
参数大小: |
128.5 |
平均分: |
57.24 |
模型名称: | orca_mini_v3_13b 📑 💬 |
参数大小: |
130 |
平均分: |
57.24 |
模型名称: | MLewd-Chat-v2-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
57.23 |
模型名称: | Athena-v4 📑 🔶 |
参数大小: |
130.2 |
平均分: |
57.23 |
模型名称: | airoboros-33b-2.1 📑 💬 |
参数大小: |
330 |
平均分: |
57.16 |
模型名称: | airoboros-33b-gpt4-m2.0 📑 🔶 |
参数大小: |
330 |
平均分: |
57.16 |
模型名称: | BrainDerp3 📑 🔶 |
参数大小: |
130.2 |
平均分: |
57.13 |
模型名称: | BrainDerp 📑 🔶 |
参数大小: |
130.2 |
平均分: |
57.11 |
模型名称: | SOLID-SFT-WoDPO-MixQV2-Zephyr-7b-beta 📑 🔶 |
参数大小: |
72.4 |
平均分: |
57.1 |
模型名称: | ReMM-v2.2-L2-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
57.1 |
模型名称: | Athena-v3 📑 🔶 |
参数大小: |
0 |
平均分: |
57.09 |
模型名称: | vicuna-33b-coder 📑 🔶 |
参数大小: |
330 |
平均分: |
57.07 |
模型名称: | Emerhyst-20B 📑 🔶 |
参数大小: |
199.9 |
平均分: |
57.07 |
模型名称: | Llama-2-13b-orca-v1 📑 🔶 |
参数大小: |
130 |
平均分: |
57.05 |
模型名称: | airoboros-33b-gpt4-m2.0 📑 🔶 |
参数大小: |
330 |
平均分: |
57.03 |
模型名称: | zephyr-beta-Nebula-v2-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
57.03 |
模型名称: | airoboros-33b-gpt4-2.0 📑 🔶 |
参数大小: |
330 |
平均分: |
57.02 |
模型名称: | wendigo-14b-alpha2 📑 🔶 |
参数大小: |
142.2 |
平均分: |
57.02 |
模型名称: | synapsellm-7b-mistral-v0.3-preview 📑 🔶 |
参数大小: |
72.4 |
平均分: |
57.01 |
模型名称: | wendigo-14b-alpha1 📑 🔶 |
参数大小: |
142.2 |
平均分: |
57.01 |
模型名称: | airoboros-33b-gpt4-2.0 📑 🔶 |
参数大小: |
330 |
平均分: |
57.01 |
模型名称: | YuLan-Chat-2-13b-fp16 📑 💬 |
参数大小: |
130 |
平均分: |
57.01 |
模型名称: | ReMM-v2-L2-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.99 |
模型名称: | AISquare-Instruct-llama2-koen-13b-v0.9.24 📑 💬 |
参数大小: |
131.6 |
平均分: |
56.98 |
模型名称: | OpenOrca-Platypus2-13B-GPTQ 📑 🔶 |
参数大小: |
162.4 |
平均分: |
56.98 |
模型名称: | GenAI-Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.98 |
模型名称: | airoboros-33b-gpt4-m2.0 📑 🔶 |
参数大小: |
330 |
平均分: |
56.97 |
模型名称: | llama-30b 📑 ❓ |
参数大小: |
325.3 |
平均分: |
56.96 |
模型名称: | llama-30B-hf-openassitant 📑 🔶 |
参数大小: |
300 |
平均分: |
56.94 |
模型名称: | CantoneseLLM-6B-preview202402 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.93 |
模型名称: | UndiMix-v4-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.93 |
模型名称: | LosslessMegaCoder-llama2-13b-mini 📑 💬 |
参数大小: |
130 |
平均分: |
56.92 |
模型名称: | Llama-2-13b-orca-v1 📑 🔶 |
参数大小: |
130 |
平均分: |
56.91 |
模型名称: | Emerald-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.89 |
模型名称: | ghost-7b-v0.9.0 📑 💬 |
参数大小: |
72.4 |
平均分: |
56.89 |
模型名称: | ReMM-Mistral-13B 📑 🔶 |
参数大小: |
128.5 |
平均分: |
56.89 |
模型名称: | Instruct_Yi-6B_Dolly15K 📑 🔶 |
参数大小: |
60.6 |
平均分: |
56.85 |
模型名称: | OpenOrcaxOpenChat-Preview2-13B-GPTQ 📑 🔶 |
参数大小: |
162.4 |
平均分: |
56.84 |
模型名称: | Barcenas-Orca-2-7b 📑 🔶 |
参数大小: |
67.4 |
平均分: |
56.81 |
模型名称: | SOLID_SFT-WoDPO-WoMixQ 📑 🔶 |
参数大小: |
72.4 |
平均分: |
56.8 |
模型名称: | TIGERScore-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.79 |
模型名称: | Orca-2-13b-SFT_v5 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.77 |
模型名称: | Yi-6B-200K ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.76 |
模型名称: | Orca-Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.72 |
模型名称: | ReMM-v2.1-L2-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.71 |
模型名称: | OpenOrcaxOpenChat-Preview2-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.7 |
模型名称: | Yi-6B-200K ✅ 📑 🟢 |
参数大小: |
60.6 |
平均分: |
56.69 |
模型名称: | test3_sft_4bit 📑 🔶 |
参数大小: |
72.4 |
平均分: |
56.66 |
模型名称: | storytime-13b 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.64 |
模型名称: | Amethyst-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.62 |
模型名称: | Amethyst-13B-Mistral 📑 🔶 |
参数大小: |
128.5 |
平均分: |
56.62 |
模型名称: | BELLE-Llama2-13B-chat-0.4M 📑 🔶 |
参数大小: |
130 |
平均分: |
56.62 |
模型名称: | Clover3-17B 📑 🔶 |
参数大小: |
168.4 |
平均分: |
56.61 |
模型名称: | chronos-33b 📑 🔶 |
参数大小: |
330 |
平均分: |
56.59 |
模型名称: | LlongOrca-13B-16k 📑 🔶 |
参数大小: |
130 |
平均分: |
56.59 |
模型名称: | llama2-13b-megacode2-oasst 📑 🔶 |
参数大小: |
130 |
平均分: |
56.59 |
模型名称: | Novocode7b-v2 📑 🔶 |
参数大小: |
72.4 |
平均分: |
56.57 |
模型名称: | NyakuraV2.1-m7 📑 🔶 |
参数大小: |
0 |
平均分: |
56.57 |
模型名称: | OpenRP-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.57 |
模型名称: | MM-ReMM-L2-20B 📑 🔶 |
参数大小: |
199.9 |
平均分: |
56.55 |
模型名称: | BerrySauce-L2-13b 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.55 |
模型名称: | MLewdBoros-L2-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.51 |
模型名称: | EnsembleV5-Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.49 |
模型名称: | EnsembleV5-Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.49 |
模型名称: | mythalion-13b 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.48 |
模型名称: | SOLAR_KO_1.3_deup 📑 💬 |
参数大小: |
108.5 |
平均分: |
56.47 |
模型名称: | speechless-code-mistral-7b-v2.0 📑 🔶 |
参数大小: |
70 |
平均分: |
56.47 |
模型名称: | WizardLM-30B-Uncensored 📑 🔶 |
参数大小: |
323.2 |
平均分: |
56.46 |
模型名称: | SciPhi-Self-RAG-Mistral-7B-32k 📑 🔶 |
参数大小: |
70 |
平均分: |
56.46 |
模型名称: | Pygmalion-2-13b-SuperCOT 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.46 |
模型名称: | Stheno-Inverted-L2-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.44 |
模型名称: | Nova-13B 📑 💬 |
参数大小: |
130.2 |
平均分: |
56.44 |
模型名称: | Stheno-L2-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.43 |
模型名称: | Mythical-Destroyer-L2-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.39 |
模型名称: | llama2_7b_merge_orcafamily 📑 🔶 |
参数大小: |
67.4 |
平均分: |
56.38 |
模型名称: | Dans-AdventurousWinds-Mk2-7b 📑 🔶 |
参数大小: |
72.4 |
平均分: |
56.38 |
模型名称: | MLewd-v2.4-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.37 |
模型名称: | speechless-code-mistral-7b-v2.0 📑 🔶 |
参数大小: |
70 |
平均分: |
56.37 |
模型名称: | airoboros-l2-13b-2.2.1 📑 💬 |
参数大小: |
130 |
平均分: |
56.36 |
模型名称: | openchat_v3.1 📑 🔶 |
参数大小: |
0 |
平均分: |
56.36 |
模型名称: | internlm2-math-20b-llama 📑 🔶 |
参数大小: |
198.6 |
平均分: |
56.35 |
模型名称: | LLAMA-13B-test-finetuning 📑 🔶 |
参数大小: |
130.2 |
平均分: |
56.34 |
模型名称: | MythoMix-L2-13b 📑 🔶 |
参数大小: |
130 |
平均分: |
56.31 |
模型名称: | mistral-7b_open_platypus 📑 💬 |
参数大小: |
70 |
平均分: |
56.29 |
模型名称: | Uncensored-Jordan-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
56.27 |
模型名称: | speechless-code-mistral-orca-7b-v1.0 📑 🔶 |
参数大小: |
70 |
平均分: |
56.24 |
模型名称: | MythoLogic-L2-13b 📑 🔶 |
参数大小: |
130 |
平均分: |
56.19 |
模型名称: | Synatra-11B-Testbench 📑 💬 |
参数大小: |
110 |
平均分: |
56.17 |