🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
Smaug-72B-v0.1 📑 | 🔶 |
722.9 |
80.48 |
76.02 |
89.27 |
77.15 |
76.67 |
85.08 |
78.7 |
LlamaForCausalLM |
alpaca-dragon-72b-v1 📑 | 🔶 |
722.9 |
79.3 |
73.89 |
88.16 |
77.4 |
72.69 |
86.03 |
77.63 |
LlamaForCausalLM |
TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16 📑 | 🔶 |
608.1 |
77.91 |
74.06 |
86.74 |
76.65 |
72.24 |
83.35 |
74.45 |
MixtralForCausalLM |
TomGrc_FusionNet_34Bx2_MoE_v0.1_full_linear_DPO 📑 | 🔶 |
608.1 |
77.52 |
74.06 |
86.67 |
76.69 |
71.32 |
83.43 |
72.93 |
MixtralForCausalLM |
CCK_Asura_v1 📑 | 🔶 |
689.8 |
77.43 |
73.89 |
89.07 |
75.44 |
71.75 |
86.35 |
68.08 |
LlamaForCausalLM |
LHK_DPO_v1 📑 | 🔶 |
128.8 |
77.43 |
74.74 |
89.37 |
64.87 |
79.88 |
88.16 |
67.55 |
MixtralForCausalLM |
UNA-SimpleSmaug-34b-v1beta 📑 | 🔶 |
343.9 |
77.41 |
74.57 |
86.74 |
76.68 |
70.17 |
83.82 |
72.48 |
LlamaForCausalLM |
FusionNet_34Bx2_MoE_v0.1 📑 | 🔶 |
608.1 |
77.38 |
73.72 |
86.46 |
76.72 |
71.01 |
83.35 |
73.01 |
MixtralForCausalLM |
Tess-72B-v1.5b 📑 | 🔶 |
722.9 |
77.3 |
71.25 |
85.53 |
76.63 |
71.99 |
81.45 |
76.95 |
LlamaForCausalLM |
Smaug-34B-v0.1 📑 | 🔶 |
343.9 |
77.29 |
74.23 |
86.76 |
76.66 |
70.22 |
83.66 |
72.18 |
LlamaForCausalLM |
Truthful_DPO_TomGrc_FusionNet_34Bx2_MoE 📑 | 🔶 |
608.1 |
77.28 |
72.87 |
86.52 |
76.96 |
73.28 |
83.19 |
70.89 |
MixtralForCausalLM |
DARE_TIES_13B 📑 | 🔶 |
128.8 |
77.1 |
74.32 |
89.5 |
64.47 |
78.66 |
88.08 |
67.55 |
MixtralForCausalLM |
13B_MATH_DPO 📑 | 🔶 |
128.8 |
77.08 |
74.66 |
89.51 |
64.53 |
78.63 |
88.08 |
67.1 |
MixtralForCausalLM |
FusionNet_34Bx2_MoE 📑 | 🔶 |
608.1 |
77.07 |
72.95 |
86.22 |
77.05 |
71.31 |
83.98 |
70.89 |
MixtralForCausalLM |
MoE_13B_DPO 📑 | 🔶 |
128.8 |
77.05 |
74.32 |
89.39 |
64.48 |
78.47 |
88.0 |
67.63 |
MixtralForCausalLM |
4bit_quant_TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO 📑 | 🔶 |
318 |
76.95 |
73.21 |
86.11 |
75.44 |
72.78 |
82.95 |
71.19 |
MixtralForCausalLM |
Truthful_DPO_cloudyu_Mixtral_34Bx2_MoE_60B 📑 | 🔶 |
608.1 |
76.48 |
71.25 |
85.24 |
77.28 |
66.74 |
84.29 |
74.07 |
MixtralForCausalLM |
CCK_Asura_v2.1 📑 | 🔶 |
689.8 |
76.41 |
72.53 |
88.75 |
74.96 |
67.33 |
85.87 |
68.99 |
LlamaForCausalLM |
FusionNet_7Bx2_MoE_v0.1 📑 | 🔶 |
128.8 |
76.16 |
74.06 |
88.9 |
65.0 |
71.2 |
87.53 |
70.28 |
MixtralForCausalLM |
NeuralTrix-7B-dpo 📑 | 🔶 |
72.4 |
76.15 |
72.27 |
88.91 |
64.06 |
79.06 |
84.61 |
68.01 |
MistralForCausalLM |
MBX-7B-v3-DPO 📑 | 🔶 |
72.4 |
76.13 |
73.55 |
89.11 |
64.91 |
74.0 |
85.56 |
69.67 |
MistralForCausalLM |
FusionNet_7Bx2_MoE_14B 📑 | 🔶 |
128.8 |
75.91 |
73.55 |
88.84 |
64.68 |
69.6 |
88.16 |
70.66 |
MixtralForCausalLM |
MiquMaid-v2-2x70B-DPO 📑 | 🔶 |
1253.5 |
75.89 |
72.53 |
88.36 |
75.31 |
66.5 |
85.32 |
67.32 |
MixtralForCausalLM |
AiMaven-Prometheus 📑 | 🔶 |
72.4 |
75.74 |
73.98 |
88.83 |
65.17 |
72.22 |
85.16 |
69.07 |
MistralForCausalLM |
Pluto_24B_DPO_63 📑 | 🔶 |
128.8 |
75.63 |
73.98 |
88.17 |
64.49 |
79.36 |
81.69 |
66.11 |
MixtralForCausalLM |
Phoenix_DPO_60B 📑 | 🔶 |
608.1 |
75.48 |
71.16 |
85.46 |
77.66 |
63.84 |
84.93 |
69.83 |
MixtralForCausalLM |
Helion-4x34B 📑 | 🔶 |
1136.6 |
75.48 |
69.71 |
85.28 |
77.33 |
63.91 |
84.37 |
72.25 |
MixtralForCausalLM |
UNA-34BeagleSimpleMath-32K-v1 📑 | 🔶 |
343.9 |
75.45 |
74.15 |
85.98 |
76.52 |
73.74 |
83.27 |
59.06 |
LlamaForCausalLM |
Senku-70B-Full 📑 | 🔶 |
689.8 |
75.44 |
71.5 |
87.88 |
75.2 |
61.96 |
84.77 |
71.34 |
LlamaForCausalLM |
UNA-34Beagles-32K-bf16-v1 📑 | 🔶 |
343.9 |
75.41 |
73.55 |
85.93 |
76.45 |
73.55 |
82.95 |
60.05 |
LlamaForCausalLM |
Cosmosis-3x34B 📑 | 🔶 |
872.4 |
75.39 |
69.71 |
85.18 |
77.25 |
63.82 |
84.14 |
72.25 |
MixtralForCausalLM |
WestLake-7B-v2-laser-truthy-dpo 📑 | 🔶 |
72.4 |
75.37 |
73.89 |
88.85 |
64.84 |
69.81 |
86.66 |
68.16 |
MistralForCausalLM |
Senku-70B-Full 📑 | 🔶 |
689.8 |
75.36 |
71.33 |
87.86 |
75.14 |
61.95 |
84.53 |
71.34 |
LlamaForCausalLM |
WestSeverus-7B-DPO-v2 📑 | 🔶 |
72.4 |
75.29 |
71.42 |
88.27 |
64.79 |
72.37 |
83.27 |
71.65 |
MistralForCausalLM |
test3_sft_16bit 📑 | 🔶 |
72.4 |
75.28 |
73.55 |
88.87 |
64.63 |
69.77 |
84.45 |
70.43 |
MistralForCausalLM |
Faraday-7B 📑 | 🔶 |
72.4 |
75.25 |
72.27 |
88.9 |
64.69 |
73.07 |
85.32 |
67.25 |
MistralForCausalLM |
Astralis-4x34B 📑 | 🔶 |
1136.6 |
75.24 |
69.71 |
85.17 |
77.24 |
63.55 |
84.14 |
71.65 |
MixtralForCausalLM |
Faraday-7B 📑 | 🔶 |
72.4 |
75.22 |
72.44 |
88.91 |
64.68 |
73.03 |
85.56 |
66.72 |
MistralForCausalLM |
WestSeverus-7B-DPO 📑 | 🔶 |
72.4 |
75.17 |
70.73 |
88.01 |
64.93 |
70.53 |
83.5 |
73.31 |
MistralForCausalLM |
Sectumsempra-7B-DPO 📑 | 🔶 |
72.4 |
75.14 |
71.5 |
88.7 |
64.9 |
72.49 |
83.19 |
70.05 |
MistralForCausalLM |
MiquMaid-v1-70B 📑 | 🔶 |
700 |
75.12 |
71.67 |
87.96 |
74.9 |
61.79 |
85.08 |
69.29 |
LlamaForCausalLM |
Bagel-Hermes-2x34B 📑 | 🔶 |
608.1 |
75.1 |
69.8 |
85.26 |
77.24 |
64.82 |
84.77 |
68.69 |
MixtralForCausalLM |
WestLakeX-7B-EvoMerge-Variant2 📑 | 🔶 |
72.4 |
75.04 |
72.53 |
88.52 |
64.77 |
70.35 |
85.79 |
68.31 |
MistralForCausalLM |
WestLake-7B-v2-laser 📑 | 🔶 |
72.4 |
74.78 |
73.29 |
88.66 |
64.72 |
67.04 |
86.74 |
68.23 |
MistralForCausalLM |
60B_MoE_Coder_v3 📑 | 🔶 |
608.1 |
74.75 |
71.16 |
85.44 |
75.37 |
67.01 |
82.56 |
66.94 |
MixtralForCausalLM |
nontoxic-bagel-34b-v0.2 📑 | 🔶 |
343.9 |
74.69 |
72.44 |
85.64 |
76.41 |
72.7 |
82.48 |
58.45 |
LlamaForCausalLM |
WestLake-7B-v2 📑 | 🔶 |
72.4 |
74.68 |
73.04 |
88.65 |
64.71 |
67.06 |
86.98 |
67.63 |
MistralForCausalLM |
MoMo-72B-LoRA-V1.4 📑 | 🔶 |
722.9 |
74.67 |
69.2 |
85.07 |
77.12 |
62.66 |
83.74 |
70.2 |
LlamaForCausalLM |
MoMo-72B-LoRA-V1.4 📑 | 🔶 |
722.9 |
74.64 |
69.11 |
85.0 |
77.26 |
62.71 |
83.74 |
69.98 |
LlamaForCausalLM |
bagel-dpo-34b-v0.2 📑 | 🔶 |
343.9 |
74.5 |
72.01 |
85.24 |
76.58 |
70.16 |
83.03 |
59.97 |
LlamaForCausalLM |
Westlake-7B 📑 | 🔶 |
72.4 |
74.48 |
73.21 |
88.49 |
64.64 |
67.36 |
86.03 |
67.17 |
MistralForCausalLM |
WestLakeX-7B-EvoMerge 📑 | 🔶 |
72.4 |
74.37 |
71.42 |
88.08 |
64.84 |
67.5 |
84.77 |
69.6 |
MistralForCausalLM |
Patronum-7B 📑 | 🔶 |
72.4 |
74.27 |
71.67 |
88.33 |
64.84 |
70.41 |
81.85 |
68.54 |
MistralForCausalLM |
SauerkrautLM-SOLAR-Instruct 📑 | 🔶 |
107.3 |
74.21 |
70.82 |
88.63 |
66.2 |
71.95 |
83.5 |
64.14 |
LlamaForCausalLM |
UNA-SOLAR-10.7B-Instruct-v1.0 📑 | 🔶 |
107.3 |
74.2 |
70.56 |
88.18 |
66.08 |
72.05 |
83.66 |
64.67 |
LlamaForCausalLM |
SOLAR-10.7b-Instruct-truthy-dpo 📑 | 🔶 |
107.3 |
74.11 |
72.1 |
88.44 |
65.45 |
76.75 |
82.72 |
59.21 |
LlamaForCausalLM |
19B_MATH_DPO 📑 | 🔶 |
191.9 |
74.1 |
71.08 |
88.43 |
66.25 |
72.11 |
82.95 |
63.76 |
MixtralForCausalLM |
UNA-POLAR-10.7B-InstructMath-v2 📑 | 🔶 |
107.3 |
74.07 |
70.73 |
88.2 |
66.03 |
71.73 |
82.95 |
64.75 |
LlamaForCausalLM |
LMCocktail-10.7B-v1 📑 | 🔶 |
107.3 |
74.06 |
70.65 |
88.13 |
66.21 |
71.03 |
83.35 |
64.97 |
Unknown |
UNAversal-2x7B-v1 📑 | 🔶 |
128.8 |
74.05 |
73.38 |
87.87 |
63.49 |
69.93 |
82.08 |
67.55 |
MixtralForCausalLM |
MixTAO-7Bx2-MoE-DPO 📑 | 🔶 |
128.8 |
73.94 |
70.9 |
87.12 |
64.72 |
69.34 |
81.22 |
70.36 |
MixtralForCausalLM |
meow 📑 | 🔶 |
107.3 |
73.94 |
70.48 |
88.08 |
66.25 |
70.49 |
83.43 |
64.9 |
Unknown |
CCK_Gony_v3 📑 | 🔶 |
467 |
73.83 |
71.33 |
88.71 |
71.07 |
73.33 |
81.22 |
57.32 |
MixtralForCausalLM |
UNAversal-8x7B-v1beta 📑 | 🔶 |
467 |
73.78 |
69.8 |
86.9 |
70.39 |
71.97 |
82.0 |
61.64 |
MixtralForCausalLM |
Aurora-Nights-70B-v1.0 📑 | 🔶 |
689.8 |
73.77 |
71.33 |
88.33 |
70.47 |
62.81 |
83.35 |
66.34 |
LlamaForCausalLM |
SuperBruphin-3x7B 📑 | 🔶 |
185.2 |
73.75 |
71.16 |
87.74 |
64.58 |
66.85 |
81.53 |
70.66 |
MixtralForCausalLM |
Nous-Hermes-2-Yi-34B 📑 | 🔶 |
343.9 |
73.74 |
66.89 |
85.49 |
76.7 |
60.37 |
82.95 |
70.05 |
LlamaForCausalLM |
MM-Orc-Vic-bagel-34b-c1000 📑 | 🔶 |
343.9 |
73.68 |
67.32 |
83.52 |
76.09 |
60.57 |
82.32 |
72.25 |
LlamaForCausalLM |
CCK_Asura_v2 📑 | 🔶 |
689.8 |
73.62 |
70.82 |
88.09 |
74.72 |
56.97 |
85.24 |
65.88 |
LlamaForCausalLM |
Experiment7-7B 📑 | 🔶 |
89.9 |
73.55 |
71.84 |
88.04 |
65.25 |
70.59 |
80.82 |
64.75 |
MistralForCausalLM |
SOLAR-10.7b-Instruct-dpo 📑 | 🔶 |
107.3 |
73.54 |
71.76 |
88.08 |
66.06 |
71.98 |
82.32 |
61.03 |
LlamaForCausalLM |
Experiment8-7B 📑 | 🔶 |
89.9 |
73.47 |
72.1 |
88.13 |
65.25 |
70.25 |
80.66 |
64.44 |
MistralForCausalLM |
Mixtral_7Bx5_MoE_30B 📑 | 🔶 |
297.9 |
73.39 |
69.97 |
86.82 |
64.42 |
65.97 |
80.98 |
72.18 |
MixtralForCausalLM |
Experiment9-7B 📑 | 🔶 |
89.9 |
73.39 |
72.01 |
88.06 |
65.32 |
70.42 |
80.74 |
63.76 |
MistralForCausalLM |
Experiment1-7B 📑 | 🔶 |
89.9 |
73.39 |
72.53 |
88.17 |
65.28 |
69.98 |
80.82 |
63.53 |
MistralForCausalLM |
Experiment2-7B 📑 | 🔶 |
89.9 |
73.38 |
72.18 |
88.15 |
65.1 |
69.97 |
81.22 |
63.68 |
MistralForCausalLM |
Experiment4-7B 📑 | 🔶 |
89.9 |
73.38 |
72.18 |
88.09 |
65.03 |
70.39 |
81.14 |
63.46 |
MistralForCausalLM |
Daredevil-7B 📑 | 🔶 |
72.4 |
73.36 |
69.37 |
87.17 |
65.3 |
64.09 |
81.29 |
72.93 |
MistralForCausalLM |
Nous-Hermes-2-Mixtral-8x7B-DPO 📑 | 🔶 |
467 |
73.35 |
71.08 |
87.29 |
72.17 |
54.83 |
83.11 |
71.65 |
MixtralForCausalLM |
multimaster-7b-v2 📑 | 🔶 |
354.3 |
73.33 |
70.48 |
87.59 |
65.09 |
60.63 |
84.29 |
71.87 |
MixtralForCausalLM |
Nous-Hermes-2-MoE-2x34B 📑 | 🔶 |
608.1 |
73.3 |
66.64 |
85.73 |
76.49 |
58.08 |
83.35 |
69.52 |
MixtralForCausalLM |
SOLAR-10.7B-NahIdWin 📑 | 🔶 |
107.3 |
73.21 |
64.51 |
85.67 |
64.17 |
76.73 |
80.51 |
67.7 |
LlamaForCausalLM |
v-alpha-tross 📑 | 🔶 |
689.8 |
73.16 |
71.84 |
86.84 |
70.44 |
65.22 |
83.11 |
61.49 |
LlamaForCausalLM |
multimaster-7b-v3 📑 | 🔶 |
354.3 |
73.07 |
70.39 |
87.65 |
65.07 |
59.7 |
84.06 |
71.57 |
MixtralForCausalLM |
34b-beta 📑 | 🔶 |
343.9 |
73.04 |
70.56 |
84.2 |
85.6 |
58.38 |
81.29 |
58.23 |
LlamaForCausalLM |
Marcoro14-7B-ties 📑 | 🔶 |
72.4 |
73.01 |
69.8 |
87.13 |
65.11 |
63.54 |
81.61 |
70.89 |
Unknown |
notux-8x7b-v1 📑 | 🔶 |
467 |
72.97 |
70.65 |
87.72 |
71.39 |
66.21 |
80.74 |
61.11 |
MixtralForCausalLM |
HuginnV5.5-12.6B 📑 | 🔶 |
129.1 |
72.93 |
72.01 |
86.7 |
64.5 |
70.45 |
81.29 |
62.62 |
MistralForCausalLM |
SauerkrautLM-Mixtral-8x7B-Instruct 📑 | 🔶 |
467 |
72.89 |
70.48 |
87.75 |
71.37 |
65.71 |
81.22 |
60.8 |
MixtralForCausalLM |
Severus-7B-DPO 📑 | 🔶 |
72.4 |
72.81 |
70.22 |
87.09 |
64.93 |
64.41 |
80.66 |
69.52 |
MistralForCausalLM |
MPOMixtral-8x7B-Instruct-v0.1 📑 | 🔶 |
467 |
72.8 |
70.99 |
87.95 |
70.26 |
66.52 |
82.56 |
58.53 |
MixtralForCausalLM |
19B_TRUTH_DPO 📑 | 🔶 |
191.9 |
72.8 |
71.67 |
88.63 |
65.78 |
72.23 |
82.16 |
56.33 |
MixtralForCausalLM |
CCK_Gony_v3.3 📑 | 🔶 |
467 |
72.76 |
70.39 |
87.88 |
71.43 |
67.41 |
81.22 |
58.23 |
MixtralForCausalLM |
SauerkrautLM-Mixtral-8x7B-Instruct 📑 | 🔶 |
467 |
72.73 |
70.56 |
87.74 |
71.08 |
65.72 |
81.45 |
59.82 |
MixtralForCausalLM |
TenyxChat-8x7B-v1 📑 | 🔶 |
467 |
72.72 |
69.71 |
87.76 |
71.12 |
65.42 |
81.22 |
61.11 |
MixtralForCausalLM |
Mixtral-8x7B-Instruct-v0.1 📑 | 🔶 |
467 |
72.7 |
70.14 |
87.55 |
71.4 |
64.98 |
81.06 |
61.11 |
MixtralForCausalLM |
garten2-7b 📑 | 🔶 |
72.4 |
72.65 |
69.37 |
87.54 |
65.44 |
59.5 |
84.69 |
69.37 |
MistralForCausalLM |
Fimbulvetr-11B-v2-Test-14 📑 | 🔶 |
107.3 |
72.64 |
70.05 |
87.79 |
66.78 |
63.43 |
82.95 |
64.82 |
LlamaForCausalLM |
Severus-7B 📑 | 🔶 |
72.4 |
72.58 |
68.43 |
86.89 |
65.2 |
61.36 |
80.9 |
72.71 |
MistralForCausalLM |
KuroMitsu-11B 📑 | 🔶 |
110 |
72.58 |
70.31 |
88.07 |
66.66 |
61.36 |
84.69 |
64.37 |
LlamaForCausalLM |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | Smaug-72B-v0.1 📑 🔶 |
参数大小: |
722.9 |
平均分: |
80.48 |
模型名称: | alpaca-dragon-72b-v1 📑 🔶 |
参数大小: |
722.9 |
平均分: |
79.3 |
模型名称: | TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16 📑 🔶 |
参数大小: |
608.1 |
平均分: |
77.91 |
模型名称: | TomGrc_FusionNet_34Bx2_MoE_v0.1_full_linear_DPO 📑 🔶 |
参数大小: |
608.1 |
平均分: |
77.52 |
模型名称: | CCK_Asura_v1 📑 🔶 |
参数大小: |
689.8 |
平均分: |
77.43 |
模型名称: | LHK_DPO_v1 📑 🔶 |
参数大小: |
128.8 |
平均分: |
77.43 |
模型名称: | UNA-SimpleSmaug-34b-v1beta 📑 🔶 |
参数大小: |
343.9 |
平均分: |
77.41 |
模型名称: | FusionNet_34Bx2_MoE_v0.1 📑 🔶 |
参数大小: |
608.1 |
平均分: |
77.38 |
模型名称: | Tess-72B-v1.5b 📑 🔶 |
参数大小: |
722.9 |
平均分: |
77.3 |
模型名称: | Smaug-34B-v0.1 📑 🔶 |
参数大小: |
343.9 |
平均分: |
77.29 |
模型名称: | Truthful_DPO_TomGrc_FusionNet_34Bx2_MoE 📑 🔶 |
参数大小: |
608.1 |
平均分: |
77.28 |
模型名称: | DARE_TIES_13B 📑 🔶 |
参数大小: |
128.8 |
平均分: |
77.1 |
模型名称: | 13B_MATH_DPO 📑 🔶 |
参数大小: |
128.8 |
平均分: |
77.08 |
模型名称: | FusionNet_34Bx2_MoE 📑 🔶 |
参数大小: |
608.1 |
平均分: |
77.07 |
模型名称: | MoE_13B_DPO 📑 🔶 |
参数大小: |
128.8 |
平均分: |
77.05 |
模型名称: | 4bit_quant_TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO 📑 🔶 |
参数大小: |
318 |
平均分: |
76.95 |
模型名称: | Truthful_DPO_cloudyu_Mixtral_34Bx2_MoE_60B 📑 🔶 |
参数大小: |
608.1 |
平均分: |
76.48 |
模型名称: | CCK_Asura_v2.1 📑 🔶 |
参数大小: |
689.8 |
平均分: |
76.41 |
模型名称: | FusionNet_7Bx2_MoE_v0.1 📑 🔶 |
参数大小: |
128.8 |
平均分: |
76.16 |
模型名称: | NeuralTrix-7B-dpo 📑 🔶 |
参数大小: |
72.4 |
平均分: |
76.15 |
模型名称: | MBX-7B-v3-DPO 📑 🔶 |
参数大小: |
72.4 |
平均分: |
76.13 |
模型名称: | FusionNet_7Bx2_MoE_14B 📑 🔶 |
参数大小: |
128.8 |
平均分: |
75.91 |
模型名称: | MiquMaid-v2-2x70B-DPO 📑 🔶 |
参数大小: |
1253.5 |
平均分: |
75.89 |
模型名称: | AiMaven-Prometheus 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.74 |
模型名称: | Pluto_24B_DPO_63 📑 🔶 |
参数大小: |
128.8 |
平均分: |
75.63 |
模型名称: | Phoenix_DPO_60B 📑 🔶 |
参数大小: |
608.1 |
平均分: |
75.48 |
模型名称: | Helion-4x34B 📑 🔶 |
参数大小: |
1136.6 |
平均分: |
75.48 |
模型名称: | UNA-34BeagleSimpleMath-32K-v1 📑 🔶 |
参数大小: |
343.9 |
平均分: |
75.45 |
模型名称: | Senku-70B-Full 📑 🔶 |
参数大小: |
689.8 |
平均分: |
75.44 |
模型名称: | UNA-34Beagles-32K-bf16-v1 📑 🔶 |
参数大小: |
343.9 |
平均分: |
75.41 |
模型名称: | Cosmosis-3x34B 📑 🔶 |
参数大小: |
872.4 |
平均分: |
75.39 |
模型名称: | WestLake-7B-v2-laser-truthy-dpo 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.37 |
模型名称: | Senku-70B-Full 📑 🔶 |
参数大小: |
689.8 |
平均分: |
75.36 |
模型名称: | WestSeverus-7B-DPO-v2 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.29 |
模型名称: | test3_sft_16bit 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.28 |
模型名称: | Faraday-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.25 |
模型名称: | Astralis-4x34B 📑 🔶 |
参数大小: |
1136.6 |
平均分: |
75.24 |
模型名称: | Faraday-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.22 |
模型名称: | WestSeverus-7B-DPO 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.17 |
模型名称: | Sectumsempra-7B-DPO 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.14 |
模型名称: | MiquMaid-v1-70B 📑 🔶 |
参数大小: |
700 |
平均分: |
75.12 |
模型名称: | Bagel-Hermes-2x34B 📑 🔶 |
参数大小: |
608.1 |
平均分: |
75.1 |
模型名称: | WestLakeX-7B-EvoMerge-Variant2 📑 🔶 |
参数大小: |
72.4 |
平均分: |
75.04 |
模型名称: | WestLake-7B-v2-laser 📑 🔶 |
参数大小: |
72.4 |
平均分: |
74.78 |
模型名称: | 60B_MoE_Coder_v3 📑 🔶 |
参数大小: |
608.1 |
平均分: |
74.75 |
模型名称: | nontoxic-bagel-34b-v0.2 📑 🔶 |
参数大小: |
343.9 |
平均分: |
74.69 |
模型名称: | WestLake-7B-v2 📑 🔶 |
参数大小: |
72.4 |
平均分: |
74.68 |
模型名称: | MoMo-72B-LoRA-V1.4 📑 🔶 |
参数大小: |
722.9 |
平均分: |
74.67 |
模型名称: | MoMo-72B-LoRA-V1.4 📑 🔶 |
参数大小: |
722.9 |
平均分: |
74.64 |
模型名称: | bagel-dpo-34b-v0.2 📑 🔶 |
参数大小: |
343.9 |
平均分: |
74.5 |
模型名称: | Westlake-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
74.48 |
模型名称: | WestLakeX-7B-EvoMerge 📑 🔶 |
参数大小: |
72.4 |
平均分: |
74.37 |
模型名称: | Patronum-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
74.27 |
模型名称: | SauerkrautLM-SOLAR-Instruct 📑 🔶 |
参数大小: |
107.3 |
平均分: |
74.21 |
模型名称: | UNA-SOLAR-10.7B-Instruct-v1.0 📑 🔶 |
参数大小: |
107.3 |
平均分: |
74.2 |
模型名称: | SOLAR-10.7b-Instruct-truthy-dpo 📑 🔶 |
参数大小: |
107.3 |
平均分: |
74.11 |
模型名称: | 19B_MATH_DPO 📑 🔶 |
参数大小: |
191.9 |
平均分: |
74.1 |
模型名称: | UNA-POLAR-10.7B-InstructMath-v2 📑 🔶 |
参数大小: |
107.3 |
平均分: |
74.07 |
模型名称: | LMCocktail-10.7B-v1 📑 🔶 |
参数大小: |
107.3 |
平均分: |
74.06 |
模型名称: | UNAversal-2x7B-v1 📑 🔶 |
参数大小: |
128.8 |
平均分: |
74.05 |
模型名称: | MixTAO-7Bx2-MoE-DPO 📑 🔶 |
参数大小: |
128.8 |
平均分: |
73.94 |
模型名称: | meow 📑 🔶 |
参数大小: |
107.3 |
平均分: |
73.94 |
模型名称: | CCK_Gony_v3 📑 🔶 |
参数大小: |
467 |
平均分: |
73.83 |
模型名称: | UNAversal-8x7B-v1beta 📑 🔶 |
参数大小: |
467 |
平均分: |
73.78 |
模型名称: | Aurora-Nights-70B-v1.0 📑 🔶 |
参数大小: |
689.8 |
平均分: |
73.77 |
模型名称: | SuperBruphin-3x7B 📑 🔶 |
参数大小: |
185.2 |
平均分: |
73.75 |
模型名称: | Nous-Hermes-2-Yi-34B 📑 🔶 |
参数大小: |
343.9 |
平均分: |
73.74 |
模型名称: | MM-Orc-Vic-bagel-34b-c1000 📑 🔶 |
参数大小: |
343.9 |
平均分: |
73.68 |
模型名称: | CCK_Asura_v2 📑 🔶 |
参数大小: |
689.8 |
平均分: |
73.62 |
模型名称: | Experiment7-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.55 |
模型名称: | SOLAR-10.7b-Instruct-dpo 📑 🔶 |
参数大小: |
107.3 |
平均分: |
73.54 |
模型名称: | Experiment8-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.47 |
模型名称: | Mixtral_7Bx5_MoE_30B 📑 🔶 |
参数大小: |
297.9 |
平均分: |
73.39 |
模型名称: | Experiment9-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.39 |
模型名称: | Experiment1-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.39 |
模型名称: | Experiment2-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.38 |
模型名称: | Experiment4-7B 📑 🔶 |
参数大小: |
89.9 |
平均分: |
73.38 |
模型名称: | Daredevil-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
73.36 |
模型名称: | Nous-Hermes-2-Mixtral-8x7B-DPO 📑 🔶 |
参数大小: |
467 |
平均分: |
73.35 |
模型名称: | multimaster-7b-v2 📑 🔶 |
参数大小: |
354.3 |
平均分: |
73.33 |
模型名称: | Nous-Hermes-2-MoE-2x34B 📑 🔶 |
参数大小: |
608.1 |
平均分: |
73.3 |
模型名称: | SOLAR-10.7B-NahIdWin 📑 🔶 |
参数大小: |
107.3 |
平均分: |
73.21 |
模型名称: | v-alpha-tross 📑 🔶 |
参数大小: |
689.8 |
平均分: |
73.16 |
模型名称: | multimaster-7b-v3 📑 🔶 |
参数大小: |
354.3 |
平均分: |
73.07 |
模型名称: | 34b-beta 📑 🔶 |
参数大小: |
343.9 |
平均分: |
73.04 |
模型名称: | Marcoro14-7B-ties 📑 🔶 |
参数大小: |
72.4 |
平均分: |
73.01 |
模型名称: | notux-8x7b-v1 📑 🔶 |
参数大小: |
467 |
平均分: |
72.97 |
模型名称: | HuginnV5.5-12.6B 📑 🔶 |
参数大小: |
129.1 |
平均分: |
72.93 |
模型名称: | SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶 |
参数大小: |
467 |
平均分: |
72.89 |
模型名称: | Severus-7B-DPO 📑 🔶 |
参数大小: |
72.4 |
平均分: |
72.81 |
模型名称: | MPOMixtral-8x7B-Instruct-v0.1 📑 🔶 |
参数大小: |
467 |
平均分: |
72.8 |
模型名称: | 19B_TRUTH_DPO 📑 🔶 |
参数大小: |
191.9 |
平均分: |
72.8 |
模型名称: | CCK_Gony_v3.3 📑 🔶 |
参数大小: |
467 |
平均分: |
72.76 |
模型名称: | SauerkrautLM-Mixtral-8x7B-Instruct 📑 🔶 |
参数大小: |
467 |
平均分: |
72.73 |
模型名称: | TenyxChat-8x7B-v1 📑 🔶 |
参数大小: |
467 |
平均分: |
72.72 |
模型名称: | Mixtral-8x7B-Instruct-v0.1 📑 🔶 |
参数大小: |
467 |
平均分: |
72.7 |
模型名称: | garten2-7b 📑 🔶 |
参数大小: |
72.4 |
平均分: |
72.65 |
模型名称: | Fimbulvetr-11B-v2-Test-14 📑 🔶 |
参数大小: |
107.3 |
平均分: |
72.64 |
模型名称: | Severus-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
72.58 |
模型名称: | KuroMitsu-11B 📑 🔶 |
参数大小: |
110 |
平均分: |
72.58 |