🟢 : 预训练模型:这类模型是新的基础模型,它们是基于特定数据集进行预训练的。
🔶 :领域特定微调模型:这些预训练模型经过了针对特定领域数据集的进一步微调,以获得更好的性能。
💬 : 聊天模型:包括使用任务指令数据集的IFT(指令式任务训练)、RLHF(强化学习从人类反馈)或DPO(通过增加策略稍微改变模型的损失)等方法进行的聊天式微调模型。
🤝 :基础合并和Moerges模型:这类模型通过合并或MoErges(模型融合)技术集成了多个模型,但不需要额外的微调。如果您发现没有图标的模型,请随时提交问题,以补充模型信息。
❓:表示未知
模型名称 | 模型类型 | 参数大小(亿) | 平均分 | ARC分数 | Hellaswag分数 | MMLU分数 | TruthfulQA分数 | Winogrande分数 | GSM8K分数 | 模型架构 |
---|---|---|---|---|---|---|---|---|---|---|
Samantha-1.11-7b 📑 | 💬 |
66.1 |
51.07 |
55.03 |
79.12 |
40.51 |
50.37 |
74.19 |
7.2 |
Unknown |
FuseLLM-7B 📑 | 🟢 |
70 |
51.07 |
53.24 |
78.72 |
47.93 |
38.17 |
74.03 |
14.33 |
LlamaForCausalLM |
deepseek-moe-16b-base ✅ 📑 | 🟢 |
163.8 |
51.07 |
53.24 |
79.77 |
46.31 |
36.08 |
73.72 |
17.29 |
Unknown |
Llama2-7b-sharegpt4 📑 | 🔶 |
70 |
51.05 |
55.72 |
80.94 |
47.47 |
48.34 |
71.19 |
2.65 |
LlamaForCausalLM |
phi-2-OpenHermes-2.5 📑 | 🔶 |
27.8 |
51.05 |
56.48 |
73.88 |
54.8 |
48.1 |
73.01 |
0.0 |
PhiForCausalLM |
chinese-llama-2-13b 📑 | 🔶 |
129.7 |
51.04 |
55.8 |
79.53 |
53.01 |
38.24 |
75.69 |
3.94 |
Unknown |
vicuna-7b-v1.3-sparsity-10 📑 | 🔶 |
67.4 |
51.02 |
51.45 |
76.98 |
47.95 |
46.88 |
69.77 |
13.12 |
LlamaForCausalLM |
Llama-2-7b-chat-hf-30-sparsity 📑 | 💬 |
67.4 |
51.02 |
52.47 |
76.58 |
45.57 |
44.82 |
69.61 |
17.06 |
LlamaForCausalLM |
yi6B_Vicuna 📑 | 🔶 |
60.6 |
51.02 |
46.16 |
69.3 |
58.43 |
48.11 |
65.67 |
18.42 |
LlamaForCausalLM |
Mistral-Pygmalion-7b 📑 | 🔶 |
70 |
51.02 |
54.44 |
78.48 |
49.23 |
41.82 |
75.3 |
6.82 |
LlamaForCausalLM |
Dorflan 📑 | 🔶 |
66.1 |
50.96 |
54.44 |
75.78 |
51.36 |
51.17 |
72.61 |
0.38 |
Unknown |
llama-2-7b-instruct-peft 📑 | 🔶 |
70 |
50.94 |
51.19 |
78.92 |
46.63 |
48.5 |
74.43 |
5.99 |
Unknown |
LLaMa-2-PeanutButter_v18_B-7B 📑 | 💬 |
70 |
50.94 |
54.61 |
81.0 |
47.07 |
41.93 |
74.51 |
6.52 |
Unknown |
Llama-2-7b-chat-hf-afr-100step-v2 📑 | 💬 |
70 |
50.89 |
52.65 |
78.25 |
48.47 |
45.18 |
72.3 |
8.49 |
LlamaForCausalLM |
Barcenas-7b 📑 | 🔶 |
70 |
50.87 |
55.12 |
77.4 |
49.27 |
43.64 |
73.64 |
6.14 |
LlamaForCausalLM |
airoboros-l2-13b-2.1 📑 | 🔶 |
130 |
50.84 |
55.12 |
80.24 |
50.89 |
44.62 |
71.9 |
2.27 |
LlamaForCausalLM |
Guanaco-Vicuna-7B-L2 📑 | 🔶 |
66.1 |
50.83 |
53.24 |
78.89 |
46.77 |
42.75 |
75.37 |
7.96 |
Unknown |
GEITje-7B-chat-v2 📑 | 💬 |
72.4 |
50.79 |
50.34 |
74.13 |
49.0 |
43.55 |
71.51 |
16.22 |
MistralForCausalLM |
firefly-llama2-13b-pretrain 📑 | 🔶 |
129.7 |
50.77 |
53.92 |
79.1 |
51.25 |
36.24 |
75.53 |
8.57 |
Unknown |
LLaMa-2-PeanutButter_v10-7B 📑 | 💬 |
70 |
50.75 |
55.29 |
81.69 |
46.97 |
43.78 |
70.88 |
5.91 |
Unknown |
vicuna-7b-v1.5-lora-timedial-unit-080082 📑 | 🔶 |
66.1 |
50.74 |
52.82 |
76.07 |
50.47 |
43.54 |
73.72 |
7.81 |
Unknown |
starling-7B 📑 | 💬 |
70 |
50.73 |
51.02 |
76.77 |
47.75 |
48.18 |
70.56 |
10.08 |
LlamaForCausalLM |
vicuna-7b-v1.5-lora-timedial-unit-080091 📑 | 🔶 |
66.1 |
50.71 |
52.82 |
76.1 |
50.58 |
43.4 |
73.72 |
7.66 |
Unknown |
doctorLLM10k 📑 | 🔶 |
67.4 |
50.7 |
54.95 |
79.94 |
44.4 |
44.76 |
70.01 |
10.16 |
LlamaForCausalLM |
Llama-2-7b-chat-finetune-AUTOMATE 📑 | 🔶 |
70 |
50.68 |
53.07 |
75.59 |
48.8 |
44.73 |
73.24 |
8.64 |
LlamaForCausalLM |
vicuna-7b-v1.3-attention-sparsity-20 📑 | 💬 |
67.4 |
50.63 |
52.3 |
77.05 |
47.39 |
46.62 |
69.22 |
11.22 |
LlamaForCausalLM |
LaOT 📑 | 🔶 |
0 |
50.62 |
55.63 |
78.96 |
50.3 |
44.72 |
74.11 |
0.0 |
Unknown |
zaraxls-l2-7b 📑 | 🔶 |
70 |
50.61 |
54.44 |
78.94 |
50.39 |
46.51 |
73.16 |
0.23 |
LlamaForCausalLM |
llama-2-7b-guanaco-instruct-sharded 📑 | 💬 |
67.4 |
50.58 |
53.75 |
78.69 |
46.65 |
43.93 |
72.61 |
7.81 |
LlamaForCausalLM |
llama-2-7b-miniguanaco 📑 | 🔶 |
67.4 |
50.55 |
49.06 |
75.59 |
46.14 |
43.73 |
72.61 |
16.15 |
LlamaForCausalLM |
vicuna-mmlu-val-mcq-7b-ep2 📑 | 🔶 |
70 |
50.55 |
53.33 |
77.73 |
46.85 |
43.87 |
71.27 |
10.24 |
LlamaForCausalLM |
L2-7b-Guanaco-Uncensored 📑 | 🔶 |
66.1 |
50.55 |
50.6 |
76.99 |
48.93 |
43.42 |
75.37 |
7.96 |
Unknown |
GEITje-7B 📑 | 🔶 |
72.4 |
50.53 |
44.8 |
75.31 |
50.1 |
40.45 |
72.38 |
20.17 |
MistralForCausalLM |
monika-ddlc-7b-v1 📑 | 🔶 |
70 |
50.49 |
54.95 |
76.78 |
45.61 |
43.94 |
72.85 |
8.79 |
LlamaForCausalLM |
WizardCoder-Python-34B-V1.0 ✅ 📑 | 💬 |
340 |
50.46 |
52.13 |
74.78 |
49.15 |
48.85 |
68.35 |
9.48 |
LlamaForCausalLM |
openthaigpt-1.0.0-beta-13b-chat-hf 📑 | 🔶 |
130 |
50.45 |
53.58 |
79.09 |
51.13 |
44.16 |
73.88 |
0.83 |
LlamaForCausalLM |
MistralLite-11B 📑 | 🔶 |
107.3 |
50.43 |
57.68 |
79.54 |
50.09 |
38.27 |
76.64 |
0.38 |
MistralForCausalLM |
Koss-7B-chat 📑 | 🔶 |
70 |
50.37 |
53.67 |
78.79 |
46.72 |
43.97 |
71.74 |
7.35 |
LlamaForCausalLM |
vicuna-7b-1.1 📑 | 🔶 |
70 |
50.37 |
53.67 |
77.46 |
45.63 |
48.94 |
70.96 |
5.53 |
LlamaForCausalLM |
spatial-vicuna-7b-v1.5-LoRA 📑 | 🔶 |
70 |
50.36 |
50.77 |
74.63 |
48.13 |
49.36 |
72.38 |
6.9 |
Unknown |
vicuna-7b-v1.5-lora-timedial 📑 | 🔶 |
66.1 |
50.35 |
52.9 |
76.29 |
50.47 |
41.6 |
73.56 |
7.28 |
Unknown |
Fireplace-13b 📑 | 🔶 |
130.2 |
50.34 |
47.7 |
69.61 |
43.56 |
48.24 |
67.17 |
25.78 |
LlamaForCausalLM |
vicuna-7b-v1.3-attention-sparsity-30 📑 | 💬 |
67.4 |
50.33 |
51.02 |
76.41 |
46.83 |
46.06 |
69.3 |
12.36 |
LlamaForCausalLM |
Yi-Ko-6B 📑 | 🔶 |
61.8 |
50.27 |
48.89 |
74.48 |
55.72 |
37.09 |
72.93 |
12.51 |
LlamaForCausalLM |
smol-3b 📑 | 🔶 |
30.2 |
50.27 |
46.33 |
68.23 |
46.33 |
50.73 |
65.35 |
24.64 |
Unknown |
Asclepius-Llama2-13B 📑 | 💬 |
130 |
50.25 |
55.89 |
79.66 |
52.38 |
40.76 |
72.69 |
0.15 |
LlamaForCausalLM |
tulu-7B-fp16 📑 | 🔶 |
70 |
50.24 |
50.17 |
77.04 |
47.63 |
41.61 |
73.8 |
11.22 |
LlamaForCausalLM |
MiniChat-1.5-3B 📑 | 🔶 |
30 |
50.23 |
46.5 |
68.28 |
46.67 |
50.71 |
65.04 |
24.18 |
LlamaForCausalLM |
LLongMA-2-13b-16k 📑 | 🔶 |
130 |
50.22 |
54.27 |
79.63 |
50.97 |
37.71 |
72.77 |
5.99 |
Unknown |
stack-llama-2 📑 | 🔶 |
0 |
50.21 |
53.07 |
78.57 |
46.8 |
38.75 |
74.03 |
10.01 |
LlamaForCausalLM |
Llama-2-7b-chat-hf-afr-200step-v2 📑 | 💬 |
70 |
50.21 |
51.79 |
77.41 |
48.55 |
43.69 |
71.9 |
7.88 |
LlamaForCausalLM |
ALMA-13B 📑 | 🔶 |
130 |
50.16 |
56.83 |
80.29 |
49.92 |
37.57 |
76.32 |
0.0 |
LlamaForCausalLM |
LLongMA-2-13b-16k 📑 | 🔶 |
130 |
50.09 |
54.27 |
79.66 |
50.86 |
37.68 |
72.61 |
5.46 |
Unknown |
Llama-2-7B-32K-Instruct 📑 | 🔶 |
70 |
50.02 |
51.11 |
78.51 |
46.11 |
44.86 |
73.88 |
5.69 |
LlamaForCausalLM |
llama-7b-SFT-qlora-eli5-wiki_DPO_ds_RM_top_2_1024_r_64_alpha_16 📑 | 💬 |
70 |
49.98 |
54.1 |
78.74 |
45.44 |
43.4 |
73.64 |
4.55 |
Unknown |
Platypus2-7B 📑 | 💬 |
67.4 |
49.97 |
55.2 |
78.84 |
49.83 |
40.64 |
73.48 |
1.82 |
LlamaForCausalLM |
belal-finetuned-llama2-1024-v2.2 📑 | 🔶 |
67.4 |
49.96 |
52.65 |
77.81 |
44.65 |
40.02 |
74.11 |
10.54 |
LlamaForCausalLM |
mamba-gpt-7b 📑 | 🔶 |
70 |
49.96 |
51.19 |
75.4 |
47.47 |
42.06 |
71.67 |
11.98 |
LlamaForCausalLM |
Uncensored-Jordan-7B 📑 | 🔶 |
70 |
49.95 |
51.28 |
77.37 |
45.69 |
47.5 |
71.11 |
6.75 |
LlamaForCausalLM |
llama-2-coder-7b 📑 | 🔶 |
70 |
49.95 |
54.01 |
78.35 |
46.25 |
38.49 |
75.45 |
7.13 |
LlamaForCausalLM |
tora-code-34b-v1.0 📑 | 🔶 |
340 |
49.92 |
50.26 |
75.48 |
46.65 |
39.62 |
67.72 |
19.79 |
LlamaForCausalLM |
openbuddy-deepseekcoder-33b-v16.1-32k 📑 | 🔶 |
334 |
49.91 |
45.05 |
60.79 |
43.24 |
44.49 |
62.19 |
43.67 |
LlamaForCausalLM |
LLaMa-2-PeanutButter_v18_A-7B 📑 | 💬 |
70 |
49.88 |
53.16 |
78.11 |
45.54 |
40.37 |
74.9 |
7.2 |
Unknown |
kollama2-7b 📑 | 🔶 |
70 |
49.81 |
53.24 |
78.78 |
42.31 |
44.56 |
73.95 |
5.99 |
LlamaForCausalLM |
Solar-M-SakuraSolar-Mixed 📑 | 🔶 |
89.9 |
49.81 |
45.9 |
58.56 |
64.51 |
59.62 |
70.24 |
0.0 |
LlamaForCausalLM |
WizardMath-7B-V1.0 ✅ 📑 | 🔶 |
70 |
49.78 |
54.1 |
79.55 |
45.97 |
43.65 |
72.69 |
2.73 |
LlamaForCausalLM |
ELYZA-japanese-Llama-2-7b-instruct 📑 | 💬 |
70 |
49.78 |
53.16 |
78.25 |
47.07 |
39.08 |
73.24 |
7.88 |
LlamaForCausalLM |
llama2-to-mistral-diff 📑 | 🔶 |
0 |
49.78 |
53.41 |
78.56 |
46.43 |
38.71 |
74.03 |
7.51 |
Unknown |
vicuna-7b-v1.5-lora-mixed-datasets-time-unit 📑 | 🔶 |
66.1 |
49.77 |
51.79 |
76.41 |
49.58 |
40.33 |
73.4 |
7.13 |
Unknown |
LongQLoRA-Llama2-7b-8k 📑 | 🔶 |
70 |
49.75 |
52.47 |
78.11 |
45.37 |
38.94 |
72.06 |
11.52 |
LlamaForCausalLM |
llama-2-7b-hf_open-platypus 📑 | 💬 |
67.4 |
49.73 |
51.45 |
78.63 |
43.6 |
43.71 |
74.43 |
6.6 |
LlamaForCausalLM |
test-llama2-7b 📑 | 🔶 |
70 |
49.73 |
53.07 |
78.57 |
46.86 |
38.75 |
74.03 |
7.13 |
Unknown |
Starlight-7B 📑 | 🔶 |
70 |
49.73 |
53.07 |
78.57 |
46.8 |
38.75 |
74.03 |
7.13 |
LlamaForCausalLM |
ToolLLaMA-7b-LoRA 📑 | 🔶 |
70 |
49.72 |
52.99 |
78.62 |
46.87 |
38.67 |
74.35 |
6.82 |
Unknown |
vicuna-class-shishya-ac-hal-13b-ep3 📑 | 🔶 |
130 |
49.7 |
48.46 |
80.78 |
56.17 |
39.32 |
73.48 |
0.0 |
LlamaForCausalLM |
vicuna-7b-v1.5-lora-mixed-datasets 📑 | 🔶 |
66.1 |
49.7 |
51.71 |
76.44 |
50.13 |
39.57 |
73.24 |
7.13 |
Unknown |
finetuned-llama-v2.0 📑 | 🔶 |
0 |
49.67 |
53.16 |
77.75 |
43.69 |
39.08 |
74.43 |
9.93 |
LlamaForCausalLM |
llama2_7b_chat_uncensored 📑 | 🔶 |
70 |
49.67 |
53.58 |
78.66 |
44.49 |
41.34 |
74.11 |
5.84 |
LlamaForCausalLM |
chinese-alpaca-plus-13b-hf 📑 | 🔶 |
130 |
49.66 |
53.16 |
73.51 |
48.81 |
45.32 |
75.06 |
2.12 |
LlamaForCausalLM |
starchat-beta 📑 | 🔶 |
155.2 |
49.66 |
52.47 |
80.59 |
42.85 |
47.22 |
69.69 |
5.16 |
GPTBigCodeForCausalLM |
Llama-2-7B-32K-Instruct 📑 | 💬 |
70 |
49.65 |
51.37 |
78.47 |
45.53 |
45.01 |
72.85 |
4.7 |
LlamaForCausalLM |
airoboros-l2-7b-2.1 📑 | 🔶 |
70 |
49.64 |
54.44 |
78.68 |
44.45 |
43.95 |
74.11 |
2.2 |
LlamaForCausalLM |
Llama-2-7b-ft-instruct-es 📑 | 🔶 |
70 |
49.63 |
53.67 |
77.83 |
46.58 |
38.82 |
75.22 |
5.69 |
LlamaForCausalLM |
meditron-7b-chat 📑 | 🔶 |
67.4 |
49.59 |
50.77 |
75.37 |
40.49 |
48.56 |
73.16 |
9.17 |
LlamaForCausalLM |
airoboros-l2-7b-gpt4-1.4.1 📑 | 🔶 |
70 |
49.54 |
55.12 |
79.6 |
45.17 |
40.29 |
74.27 |
2.81 |
LlamaForCausalLM |
llama2-ko-7B-model 📑 | 🔶 |
66.7 |
49.52 |
56.31 |
79.51 |
45.71 |
40.98 |
72.06 |
2.58 |
Unknown |
instruct-13b 📑 | 🔶 |
128.5 |
49.52 |
56.14 |
80.27 |
47.89 |
36.97 |
73.56 |
2.27 |
Unknown |
QuantumLM-7B 📑 | ❓ |
70 |
49.51 |
50.26 |
76.1 |
45.27 |
46.25 |
71.51 |
7.66 |
LlamaForCausalLM |
tamil-llama-13b-base-v0.1 📑 | 🔶 |
130 |
49.5 |
52.82 |
79.95 |
52.05 |
36.56 |
75.61 |
0.0 |
LlamaForCausalLM |
AceGPT-7B 📑 | 🔶 |
70 |
49.47 |
53.58 |
77.54 |
43.0 |
38.75 |
72.77 |
11.14 |
LlamaForCausalLM |
Manticore-13B-Chat-Pyg-Guanaco-SuperHOT-8K-GPTQ 📑 | ❓ |
162.2 |
49.47 |
52.82 |
79.63 |
39.83 |
52.55 |
71.82 |
0.15 |
LlamaForCausalLM |
Guanaco-7B-Uncensored 📑 | 🔶 |
70 |
49.35 |
52.13 |
78.77 |
43.42 |
44.45 |
73.09 |
4.25 |
LlamaForCausalLM |
FinanceConnect-13B 📑 | 🔶 |
130.2 |
49.34 |
55.12 |
77.73 |
52.08 |
37.68 |
71.82 |
1.59 |
LlamaForCausalLM |
ALMA-13B-R 📑 | 💬 |
130.2 |
49.32 |
55.55 |
79.45 |
49.52 |
36.09 |
75.3 |
0.0 |
? |
odia_llama2_7B_base 📑 | 💬 |
70 |
49.3 |
50.77 |
75.94 |
46.1 |
37.27 |
70.8 |
14.94 |
LlamaForCausalLM |
vigogne-7b-chat 📑 | 🔶 |
70 |
49.27 |
52.47 |
78.35 |
39.51 |
44.52 |
73.16 |
7.58 |
LlamaForCausalLM |
llama-v2-7b-32kC-Security 📑 | 💬 |
66.1 |
49.19 |
49.83 |
77.33 |
44.41 |
47.96 |
71.74 |
3.87 |
Unknown |
ELYZA-japanese-Llama-2-7b-fast-instruct 📑 | 🔶 |
70 |
49.15 |
53.75 |
77.55 |
46.85 |
38.84 |
71.59 |
6.29 |
LlamaForCausalLM |
TowerBase-7B-v0.1 📑 | 🔶 |
67.4 |
49.11 |
51.02 |
77.68 |
43.48 |
37.29 |
72.06 |
13.12 |
LlamaForCausalLM |
WhiteRabbitNeo-13B-v1 📑 | 🔶 |
130 |
49.11 |
48.55 |
68.7 |
43.04 |
44.58 |
67.4 |
22.37 |
LlamaForCausalLM |
注意:手机屏幕有限,仅展示平均分,所有内容建议电脑端访问。
模型名称: | Samantha-1.11-7b 📑 💬 |
参数大小: |
66.1 |
平均分: |
51.07 |
模型名称: | FuseLLM-7B 📑 🟢 |
参数大小: |
70 |
平均分: |
51.07 |
模型名称: | deepseek-moe-16b-base ✅ 📑 🟢 |
参数大小: |
163.8 |
平均分: |
51.07 |
模型名称: | Llama2-7b-sharegpt4 📑 🔶 |
参数大小: |
70 |
平均分: |
51.05 |
模型名称: | phi-2-OpenHermes-2.5 📑 🔶 |
参数大小: |
27.8 |
平均分: |
51.05 |
模型名称: | chinese-llama-2-13b 📑 🔶 |
参数大小: |
129.7 |
平均分: |
51.04 |
模型名称: | vicuna-7b-v1.3-sparsity-10 📑 🔶 |
参数大小: |
67.4 |
平均分: |
51.02 |
模型名称: | Llama-2-7b-chat-hf-30-sparsity 📑 💬 |
参数大小: |
67.4 |
平均分: |
51.02 |
模型名称: | yi6B_Vicuna 📑 🔶 |
参数大小: |
60.6 |
平均分: |
51.02 |
模型名称: | Mistral-Pygmalion-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
51.02 |
模型名称: | Dorflan 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.96 |
模型名称: | llama-2-7b-instruct-peft 📑 🔶 |
参数大小: |
70 |
平均分: |
50.94 |
模型名称: | LLaMa-2-PeanutButter_v18_B-7B 📑 💬 |
参数大小: |
70 |
平均分: |
50.94 |
模型名称: | Llama-2-7b-chat-hf-afr-100step-v2 📑 💬 |
参数大小: |
70 |
平均分: |
50.89 |
模型名称: | Barcenas-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
50.87 |
模型名称: | airoboros-l2-13b-2.1 📑 🔶 |
参数大小: |
130 |
平均分: |
50.84 |
模型名称: | Guanaco-Vicuna-7B-L2 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.83 |
模型名称: | GEITje-7B-chat-v2 📑 💬 |
参数大小: |
72.4 |
平均分: |
50.79 |
模型名称: | firefly-llama2-13b-pretrain 📑 🔶 |
参数大小: |
129.7 |
平均分: |
50.77 |
模型名称: | LLaMa-2-PeanutButter_v10-7B 📑 💬 |
参数大小: |
70 |
平均分: |
50.75 |
模型名称: | vicuna-7b-v1.5-lora-timedial-unit-080082 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.74 |
模型名称: | starling-7B 📑 💬 |
参数大小: |
70 |
平均分: |
50.73 |
模型名称: | vicuna-7b-v1.5-lora-timedial-unit-080091 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.71 |
模型名称: | doctorLLM10k 📑 🔶 |
参数大小: |
67.4 |
平均分: |
50.7 |
模型名称: | Llama-2-7b-chat-finetune-AUTOMATE 📑 🔶 |
参数大小: |
70 |
平均分: |
50.68 |
模型名称: | vicuna-7b-v1.3-attention-sparsity-20 📑 💬 |
参数大小: |
67.4 |
平均分: |
50.63 |
模型名称: | LaOT 📑 🔶 |
参数大小: |
0 |
平均分: |
50.62 |
模型名称: | zaraxls-l2-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
50.61 |
模型名称: | llama-2-7b-guanaco-instruct-sharded 📑 💬 |
参数大小: |
67.4 |
平均分: |
50.58 |
模型名称: | llama-2-7b-miniguanaco 📑 🔶 |
参数大小: |
67.4 |
平均分: |
50.55 |
模型名称: | vicuna-mmlu-val-mcq-7b-ep2 📑 🔶 |
参数大小: |
70 |
平均分: |
50.55 |
模型名称: | L2-7b-Guanaco-Uncensored 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.55 |
模型名称: | GEITje-7B 📑 🔶 |
参数大小: |
72.4 |
平均分: |
50.53 |
模型名称: | monika-ddlc-7b-v1 📑 🔶 |
参数大小: |
70 |
平均分: |
50.49 |
模型名称: | WizardCoder-Python-34B-V1.0 ✅ 📑 💬 |
参数大小: |
340 |
平均分: |
50.46 |
模型名称: | openthaigpt-1.0.0-beta-13b-chat-hf 📑 🔶 |
参数大小: |
130 |
平均分: |
50.45 |
模型名称: | MistralLite-11B 📑 🔶 |
参数大小: |
107.3 |
平均分: |
50.43 |
模型名称: | Koss-7B-chat 📑 🔶 |
参数大小: |
70 |
平均分: |
50.37 |
模型名称: | vicuna-7b-1.1 📑 🔶 |
参数大小: |
70 |
平均分: |
50.37 |
模型名称: | spatial-vicuna-7b-v1.5-LoRA 📑 🔶 |
参数大小: |
70 |
平均分: |
50.36 |
模型名称: | vicuna-7b-v1.5-lora-timedial 📑 🔶 |
参数大小: |
66.1 |
平均分: |
50.35 |
模型名称: | Fireplace-13b 📑 🔶 |
参数大小: |
130.2 |
平均分: |
50.34 |
模型名称: | vicuna-7b-v1.3-attention-sparsity-30 📑 💬 |
参数大小: |
67.4 |
平均分: |
50.33 |
模型名称: | Yi-Ko-6B 📑 🔶 |
参数大小: |
61.8 |
平均分: |
50.27 |
模型名称: | smol-3b 📑 🔶 |
参数大小: |
30.2 |
平均分: |
50.27 |
模型名称: | Asclepius-Llama2-13B 📑 💬 |
参数大小: |
130 |
平均分: |
50.25 |
模型名称: | tulu-7B-fp16 📑 🔶 |
参数大小: |
70 |
平均分: |
50.24 |
模型名称: | MiniChat-1.5-3B 📑 🔶 |
参数大小: |
30 |
平均分: |
50.23 |
模型名称: | LLongMA-2-13b-16k 📑 🔶 |
参数大小: |
130 |
平均分: |
50.22 |
模型名称: | stack-llama-2 📑 🔶 |
参数大小: |
0 |
平均分: |
50.21 |
模型名称: | Llama-2-7b-chat-hf-afr-200step-v2 📑 💬 |
参数大小: |
70 |
平均分: |
50.21 |
模型名称: | ALMA-13B 📑 🔶 |
参数大小: |
130 |
平均分: |
50.16 |
模型名称: | LLongMA-2-13b-16k 📑 🔶 |
参数大小: |
130 |
平均分: |
50.09 |
模型名称: | Llama-2-7B-32K-Instruct 📑 🔶 |
参数大小: |
70 |
平均分: |
50.02 |
模型名称: | llama-7b-SFT-qlora-eli5-wiki_DPO_ds_RM_top_2_1024_r_64_alpha_16 📑 💬 |
参数大小: |
70 |
平均分: |
49.98 |
模型名称: | Platypus2-7B 📑 💬 |
参数大小: |
67.4 |
平均分: |
49.97 |
模型名称: | belal-finetuned-llama2-1024-v2.2 📑 🔶 |
参数大小: |
67.4 |
平均分: |
49.96 |
模型名称: | mamba-gpt-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
49.96 |
模型名称: | Uncensored-Jordan-7B 📑 🔶 |
参数大小: |
70 |
平均分: |
49.95 |
模型名称: | llama-2-coder-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
49.95 |
模型名称: | tora-code-34b-v1.0 📑 🔶 |
参数大小: |
340 |
平均分: |
49.92 |
模型名称: | openbuddy-deepseekcoder-33b-v16.1-32k 📑 🔶 |
参数大小: |
334 |
平均分: |
49.91 |
模型名称: | LLaMa-2-PeanutButter_v18_A-7B 📑 💬 |
参数大小: |
70 |
平均分: |
49.88 |
模型名称: | kollama2-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
49.81 |
模型名称: | Solar-M-SakuraSolar-Mixed 📑 🔶 |
参数大小: |
89.9 |
平均分: |
49.81 |
模型名称: | WizardMath-7B-V1.0 ✅ 📑 🔶 |
参数大小: |
70 |
平均分: |
49.78 |
模型名称: | ELYZA-japanese-Llama-2-7b-instruct 📑 💬 |
参数大小: |
70 |
平均分: |
49.78 |
模型名称: | llama2-to-mistral-diff 📑 🔶 |
参数大小: |
0 |
平均分: |
49.78 |
模型名称: | vicuna-7b-v1.5-lora-mixed-datasets-time-unit 📑 🔶 |
参数大小: |
66.1 |
平均分: |
49.77 |
模型名称: | LongQLoRA-Llama2-7b-8k 📑 🔶 |
参数大小: |
70 |
平均分: |
49.75 |
模型名称: | llama-2-7b-hf_open-platypus 📑 💬 |
参数大小: |
67.4 |
平均分: |
49.73 |
模型名称: | test-llama2-7b 📑 🔶 |
参数大小: |
70 |
平均分: |
49.73 |
模型名称: | Starlight-7B 📑 🔶 |
参数大小: |
70 |
平均分: |
49.73 |
模型名称: | ToolLLaMA-7b-LoRA 📑 🔶 |
参数大小: |
70 |
平均分: |
49.72 |
模型名称: | vicuna-class-shishya-ac-hal-13b-ep3 📑 🔶 |
参数大小: |
130 |
平均分: |
49.7 |
模型名称: | vicuna-7b-v1.5-lora-mixed-datasets 📑 🔶 |
参数大小: |
66.1 |
平均分: |
49.7 |
模型名称: | finetuned-llama-v2.0 📑 🔶 |
参数大小: |
0 |
平均分: |
49.67 |
模型名称: | llama2_7b_chat_uncensored 📑 🔶 |
参数大小: |
70 |
平均分: |
49.67 |
模型名称: | chinese-alpaca-plus-13b-hf 📑 🔶 |
参数大小: |
130 |
平均分: |
49.66 |
模型名称: | starchat-beta 📑 🔶 |
参数大小: |
155.2 |
平均分: |
49.66 |
模型名称: | Llama-2-7B-32K-Instruct 📑 💬 |
参数大小: |
70 |
平均分: |
49.65 |
模型名称: | airoboros-l2-7b-2.1 📑 🔶 |
参数大小: |
70 |
平均分: |
49.64 |
模型名称: | Llama-2-7b-ft-instruct-es 📑 🔶 |
参数大小: |
70 |
平均分: |
49.63 |
模型名称: | meditron-7b-chat 📑 🔶 |
参数大小: |
67.4 |
平均分: |
49.59 |
模型名称: | airoboros-l2-7b-gpt4-1.4.1 📑 🔶 |
参数大小: |
70 |
平均分: |
49.54 |
模型名称: | llama2-ko-7B-model 📑 🔶 |
参数大小: |
66.7 |
平均分: |
49.52 |
模型名称: | instruct-13b 📑 🔶 |
参数大小: |
128.5 |
平均分: |
49.52 |
模型名称: | QuantumLM-7B 📑 ❓ |
参数大小: |
70 |
平均分: |
49.51 |
模型名称: | tamil-llama-13b-base-v0.1 📑 🔶 |
参数大小: |
130 |
平均分: |
49.5 |
模型名称: | AceGPT-7B 📑 🔶 |
参数大小: |
70 |
平均分: |
49.47 |
模型名称: | Manticore-13B-Chat-Pyg-Guanaco-SuperHOT-8K-GPTQ 📑 ❓ |
参数大小: |
162.2 |
平均分: |
49.47 |
模型名称: | Guanaco-7B-Uncensored 📑 🔶 |
参数大小: |
70 |
平均分: |
49.35 |
模型名称: | FinanceConnect-13B 📑 🔶 |
参数大小: |
130.2 |
平均分: |
49.34 |
模型名称: | ALMA-13B-R 📑 💬 |
参数大小: |
130.2 |
平均分: |
49.32 |
模型名称: | odia_llama2_7B_base 📑 💬 |
参数大小: |
70 |
平均分: |
49.3 |
模型名称: | vigogne-7b-chat 📑 🔶 |
参数大小: |
70 |
平均分: |
49.27 |
模型名称: | llama-v2-7b-32kC-Security 📑 💬 |
参数大小: |
66.1 |
平均分: |
49.19 |
模型名称: | ELYZA-japanese-Llama-2-7b-fast-instruct 📑 🔶 |
参数大小: |
70 |
平均分: |
49.15 |
模型名称: | TowerBase-7B-v0.1 📑 🔶 |
参数大小: |
67.4 |
平均分: |
49.11 |
模型名称: | WhiteRabbitNeo-13B-v1 📑 🔶 |
参数大小: |
130 |
平均分: |
49.11 |