index
int64
0
125k
modelId
stringlengths
6
115
config_model_type
stringlengths
2
46
config_architectures
stringlengths
2
91
config_vocab_size
stringlengths
1
8
config_torch_dtype
stringclasses
7 values
config_transformers_version
stringclasses
228 values
config_hidden_size
float64
0
18.4k
config_intermediate_size
float64
0
25.2M
config_num_hidden_layers
float64
-1
260
config_num_attention_heads
stringclasses
47 values
config_num_key_value_heads
float64
0
4.1k
config_hidden_act
stringclasses
19 values
config_attention_dropout
float64
0
0.5
config_use_cache
stringclasses
3 values
config_max_position_embeddings
float64
-1
10.5M
config_rope_theta
float64
256
100B
config_rms_norm_eps
float64
0
0
config_initializer_range
float64
0
2
config_bos_token_id
stringclasses
158 values
config_eos_token_id
stringclasses
339 values
config_tie_word_embeddings
bool
2 classes
config_head_dimension
float64
0.5
3.07k
config_gqa_ratio
float64
0.5
64
config_moe_enabled
bool
1 class
config_n_routed_experts
float64
1
384
config_num_experts_per_tok
float64
1
64
is_llama_family
bool
2 classes
is_bert_family
bool
2 classes
is_gpt_family
bool
2 classes
is_t5_family
bool
2 classes
is_whisper_family
bool
2 classes
is_deepseek_family
bool
2 classes
is_mistral_family
bool
2 classes
uses_moe
bool
2 classes
uses_gqa
bool
2 classes
uses_rope
bool
2 classes
config_approx_params_billions
float64
-0.2
606
size_category
stringclasses
4 values
context_category
stringclasses
4 values
900
54data/xlm-roberta-base-finetuned-panx-fr
xlm-roberta
["XLMRobertaForTokenClassification"]
250002
float32
4.32.0
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
901
54data/xlm-roberta-base-finetuned-panx-it
xlm-roberta
["XLMRobertaForTokenClassification"]
250002
float32
4.32.0
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
902
5524-Group/testing
depth_anything
["DepthAnythingForDepthEstimation"]
null
float32
null
null
null
null
null
null
null
null
null
null
null
null
0.02
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
903
567-labs/bge-base-en-v1.5-ft-quora-0.1
bert
["BertModel"]
30522
float32
4.36.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
904
567-labs/bge-base-en-v1.5-ft-quora-0.3
bert
["BertModel"]
30522
float32
4.36.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
905
567-labs/bge-base-en-v1.5-ft-quora-0.5
bert
["BertModel"]
30522
float32
4.36.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
906
567-labs/bge-base-en-v1.5-ft-quora-0.7
bert
["BertModel"]
30522
float32
4.36.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
907
567-labs/bge-base-en-v1.5-ft-quora-0.9
bert
["BertModel"]
30522
float32
4.36.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
908
5CD-AI/viso-twhin-bert-large
bert
["BertForMaskedLM"]
20002
float32
4.38.2
1,024
4,096
24
16
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.30199
small
short
909
5CD-AI/visobert-14gb-corpus
xlm-roberta
["XLMRobertaForMaskedLM"]
15004
float32
4.38.2
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
910
5CD-AI/visocial-T5-base
mt5
["MT5ForConditionalGeneration"]
50589
bfloat16
4.41.1
null
null
null
null
null
null
null
False
null
null
null
null
null
1
false
null
null
false
null
null
false
false
false
true
false
false
false
false
false
false
null
null
null
911
5HAK0/TagFashion
qwen2_5_vl
["Qwen2_5_VLForConditionalGeneration"]
152064
bfloat16
4.51.3
3,584
18,944
28
28
4
silu
0
True
128,000
1,000,000
0.000001
0.02
151643
151645
false
128
7
false
null
null
false
false
false
false
false
false
false
false
true
true
4.315939
medium
very_long
912
5Sagar/LUNARLANDER
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
913
5UK5Qt/HunyuanVideo-PromptRewrite-HF
hunyuan
["HunYuanForCausalLM"]
129024
bfloat16
4.41.2
6,400
18,304
64
80
8
silu
0
True
131,072
10,000
0.00001
0.02
1
2
true
80
10
false
null
null
false
false
false
false
false
false
false
false
true
true
31.45728
large
very_long
914
5cean/Bllossom-8b-SFT
llama
["LlamaForCausalLM"]
128256
float32
4.43.1
4,096
14,336
32
32
8
silu
0
False
8,192
500,000
0.00001
0.02
128000
128009
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
915
5eunsoo/my-bert-fine-tuned
bert
["BertForSequenceClassification"]
32000
float32
4.41.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
916
5eunsoo/my-bert-fine-tuned2
bert
["BertForSequenceClassification"]
32000
float32
4.41.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
917
5eunsoo/my-bert-fine-tuned3
bert
["BertForSequenceClassification"]
32000
float32
4.41.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
918
5hunshun/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
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
919
5hunshun/sd-class-butterflies-32
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
920
5imp5on/xlm-roberta-base-finetuned-emotion
xlm-roberta
["XLMRobertaForSequenceClassification"]
250002
float32
4.41.0
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
921
5iveDesignStudio/TenderGPT-Festive
falcon
["FalconForCausalLM"]
65024
bfloat16
4.27.4
4,544
null
32
71
null
null
0
True
null
null
null
0.02
11
11
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
7.928807
large
null
922
61347023S/mDeBERTa-v3-base-xnli-multilingual-zeroshot-v1.2
deberta-v2
["DebertaV2ForSequenceClassification"]
251000
float32
4.33.3
768
3,072
12
12
null
gelu
null
null
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
923
61347023S/mDeBERTa-v3-base-xnli-multilingual-zeroshot-v1.3
deberta-v2
["DebertaV2ForSequenceClassification"]
251000
float32
4.33.3
768
3,072
12
12
null
gelu
null
null
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
924
618AI/dictalm2-it-qa-fine-tune
mistral
["MistralForCausalLM"]
33153
bfloat16
4.38.1
4,096
14,336
32
32
8
silu
0
False
32,768
10,000
0.00001
0.02
1
2
false
128
4
false
null
null
false
false
false
false
false
false
true
false
true
true
6.442451
medium
very_long
925
640510702phithak/abc
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
926
64FC/speecht5_finetuned_voxpopuli_it
speecht5
["SpeechT5ForTextToSpeech"]
81
float32
4.32.0
768
null
null
null
null
gelu
0.1
False
null
null
null
0.02
0
2
null
null
null
false
null
null
false
false
false
true
false
false
false
false
false
false
null
null
null
927
64FC/speecht5_finetuned_voxpopuli_nl
speecht5
["SpeechT5ForTextToSpeech"]
81
float32
4.31.0.dev0
768
null
null
null
null
gelu
0.1
False
null
null
null
0.02
0
2
null
null
null
false
null
null
false
false
false
true
false
false
false
false
false
false
null
null
null
928
64FC/whisper-small-dv
whisper
["WhisperForConditionalGeneration"]
51865
float32
4.33.0.dev0
null
null
12
null
null
null
0
False
null
null
null
null
50257
50257
null
null
null
false
null
null
false
false
false
false
true
false
false
false
false
false
null
null
null
929
64FC/whisper-tiny-en
whisper
["WhisperForConditionalGeneration"]
51865
float32
4.33.0.dev0
null
null
4
null
null
null
0
False
null
null
null
null
50257
50257
null
null
null
false
null
null
false
false
false
false
true
false
false
false
false
false
null
null
null
930
64bits/LexPodLM-13B
llama
["LlamaForCausalLM"]
32000
bfloat16
4.28.1
5,120
13,824
40
40
null
silu
null
False
2,048
null
0.000001
0.02
1
2
false
128
null
false
null
null
true
false
false
false
false
false
false
false
false
false
12.582912
large
medium
931
666shushu/sd-class-butterflies-32
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
932
68611-llm-annotation-group/BioGPT-NER-BC2GM-HA
biogpt
["BioGptForTokenClassification"]
42384
float32
4.35.2
1,024
4,096
24
16
null
gelu
null
True
1,024
null
null
0.02
0
2
null
64
null
false
null
null
false
false
true
false
false
false
false
false
false
false
0.30199
small
short
933
68611-llm-annotation-group/BioGPT-NER-BC5CDR_C-HA
biogpt
["BioGptForTokenClassification"]
42384
float32
4.35.2
1,024
4,096
24
16
null
gelu
null
True
1,024
null
null
0.02
0
2
null
64
null
false
null
null
false
false
true
false
false
false
false
false
false
false
0.30199
small
short
934
68611-llm-annotation-group/BioGPT-NER-BC5CDR_D-HA
biogpt
["BioGptForTokenClassification"]
42384
float32
4.35.2
1,024
4,096
24
16
null
gelu
null
True
1,024
null
null
0.02
0
2
null
64
null
false
null
null
false
false
true
false
false
false
false
false
false
false
0.30199
small
short
935
68611-llm-annotation-group/BioGPT-NER-JNLPBA-HA
biogpt
["BioGptForTokenClassification"]
42384
float32
4.35.2
1,024
4,096
24
16
null
gelu
null
True
1,024
null
null
0.02
0
2
null
64
null
false
null
null
false
false
true
false
false
false
false
false
false
false
0.30199
small
short
936
68611-llm-annotation-group/BioGPT-NER-NCBI-HA
biogpt
["BioGptForTokenClassification"]
42384
float32
4.35.2
1,024
4,096
24
16
null
gelu
null
True
1,024
null
null
0.02
0
2
null
64
null
false
null
null
false
false
true
false
false
false
false
false
false
false
0.30199
small
short
937
6adityaverma/DialoGPT-large-Rick
gpt2
["GPT2LMHeadModel"]
50257
float32
4.32.1
null
null
null
null
null
null
null
True
null
null
null
0.02
50256
50256
null
null
null
false
null
null
false
false
true
false
false
false
false
false
false
false
null
null
null
938
6adityaverma/DialoGPT-large-Walter
gpt2
["GPT2LMHeadModel"]
50257
float32
4.32.1
null
null
null
null
null
null
null
True
null
null
null
0.02
50256
50256
null
null
null
false
null
null
false
false
true
false
false
false
false
false
false
false
null
null
null
939
6cf/QwQ-32B-Preview-IdeaWhiz-v1
qwen2
["Qwen2ForCausalLM"]
152064
bfloat16
4.46.1
5,120
27,648
64
40
8
silu
0
True
32,768
1,000,000
0.00001
0.02
151643
151645
false
128
5
false
null
null
false
false
false
false
false
false
false
false
true
true
20.132659
large
very_long
940
6x16/whisper-large-v3-turbo-yue-continuous
whisper
["WhisperForConditionalGeneration"]
51866
float32
4.51.3
null
null
32
null
null
null
0
True
null
null
null
null
50257
50257
null
null
null
false
null
null
false
false
false
false
true
false
false
false
false
false
null
null
null
941
6x16/whisper-small-yue-quicktrain
whisper
["WhisperForConditionalGeneration"]
51865
float32
4.51.3
null
null
12
null
null
null
0
True
null
null
null
null
50257
50257
null
null
null
false
null
null
false
false
false
false
true
false
false
false
false
false
null
null
null
942
717qwq/JamesRaynor-CN
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
943
7680josephgithaiga/mental-health-chatbot
gpt2
["GPT2LMHeadModel"]
50257
float32
4.51.1
null
null
null
null
null
null
null
True
null
null
null
0.02
50256
50256
null
null
null
false
null
null
false
false
true
false
false
false
false
false
false
false
null
null
null
944
77asadian/chat_bot_hamid
distilbert
["DistilBertForQuestionAnswering"]
30522
null
4.35.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
945
77asadian/hamid_chat_bot_v2
distilbert
["DistilBertForQuestionAnswering"]
30522
null
4.35.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
946
77asadian/ppo-LunarLander-v2
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
947
7Dberry/my_awesome_wnut_model
distilbert
["DistilBertForTokenClassification"]
30522
float32
4.31.0
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
948
7Dragons/Spider_3
llama
["LlamaForCausalLM"]
128256
bfloat16
4.51.3
3,072
8,192
28
24
8
silu
0
False
131,072
500,000
0.00001
0.02
128000
128001
true
128
3
false
null
null
true
false
false
false
false
false
false
false
true
true
3.170894
medium
very_long
949
7dtest/qa
llama
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
true
false
false
false
false
false
false
false
false
false
null
null
null
950
7harshit20/DeepSeek-R1-Careshark
qwen2
["Qwen2ForCausalLM"]
152064
float16
4.49.0.dev0
5,120
13,824
48
40
8
silu
0
True
131,072
1,000,000
0.00001
0.02
151646
151643
false
128
5
false
null
null
false
false
false
false
false
false
false
false
true
true
15.099494
large
very_long
951
7iFiNalBoSS/fill-flux.1-dev-nf4
null
[]
null
null
null
null
null
null
24
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
true
null
null
null
952
7mosany/PPO_LunerLander-V2
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
953
7shoe/adaparse-scibert-uncased
bert
["BertForSequenceClassification"]
31116
float32
4.44.2
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
954
7skln/bert-finetuned-ner
bert
["BertForTokenClassification"]
28996
float32
4.42.4
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
955
7steps/diabetic_retinopathy
vit
["ViTForImageClassification"]
null
float32
4.37.2
768
3,072
12
12
null
gelu
null
null
null
null
null
0.02
null
null
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
0.084935
small
null
956
7vq0ir/alcy9
llama
["LlamaForCausalLM"]
50257
float32
4.38.2
2,048
6,112
12
32
4
silu
0
False
1,024
10,000
0.00001
0.02
1
2
false
64
8
false
null
null
true
false
false
false
false
false
false
false
true
true
0.60398
small
short
957
84nth08h/gpt_0.125B_global_step3000
gpt2
["GPT2LMHeadModel"]
2304
float32
4.39.3
null
null
null
null
null
null
null
True
null
null
null
0.02
50256
50256
null
null
null
false
null
null
false
false
true
false
false
false
false
false
false
false
null
null
null
958
84nth08h/llm-jp-3-13b-instruct2-gpro-0217-merged
llama
["LlamaForCausalLM"]
99584
bfloat16
4.48.3
5,120
13,824
40
40
40
silu
0
True
4,096
10,000
0.00001
0.02
1
2
false
128
1
false
null
null
true
false
false
false
false
false
false
false
false
true
12.582912
large
medium
959
84rry/84rry-xls-r-300M-AR
wav2vec2
["Wav2Vec2ForCTC"]
54
float32
4.18.0
1,024
4,096
24
16
null
gelu
0.1
null
null
null
null
0.02
1
2
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
0.30199
small
null
960
888Brogaard/distilbert-base-uncased-finetuned-emotion-Exam
distilbert
["DistilBertForSequenceClassification"]
30522
float32
4.44.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
961
888Brogaard/distilbert-base-uncased-finetuned-emotion2
distilbert
["DistilBertForSequenceClassification"]
30522
float32
4.16.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
962
888SH/bert_model_out
bert
["BertForSequenceClassification"]
30000
float32
4.48.3
768
3,072
12
12
null
gelu
null
True
300
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
963
88blueblue88/my_awesome_model
distilbert
["DistilBertForSequenceClassification"]
30522
float32
4.35.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short
964
8Spark/llama8B_reasoning2
llama
["LlamaForCausalLM"]
128256
float16
4.46.3
4,096
14,336
32
32
8
silu
0
True
131,072
500,000
0.00001
0.02
128000
[128001, 128008, 128009]
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
very_long
965
8bits-ai/SegFormer-Lane-Marking
segformer
["SegformerForSemanticSegmentation"]
null
float32
4.43.3
null
null
null
[1, 2, 5, 8]
null
gelu
null
null
null
null
null
0.02
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
966
9-coding/gemma-2-2b-it-nl2sql
gemma2
["Gemma2ForCausalLM"]
256000
float16
4.45.1
2,304
9,216
26
8
4
gelu_pytorch_tanh
0
False
8,192
10,000
0.000001
0.02
2
[1, 107]
null
288
2
false
null
null
false
false
false
false
false
false
false
false
true
true
1.656226
medium
long
967
907508196l/wav2vec2-base-finetuned-ks
wav2vec2
["Wav2Vec2ForSequenceClassification"]
32
float32
4.26.1
768
3,072
12
12
null
gelu
0.1
null
null
null
null
0.02
1
2
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
0.084935
small
null
968
907508196l/wavlm-libri-clean-100h-base-plus-finetuned-ks
wavlm
["WavLMForSequenceClassification"]
31
float32
4.26.1
768
3,072
12
12
null
gelu
0
null
null
null
null
0.02
1
2
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
0.084935
small
null
969
90sUI/rw
t5
["T5ForConditionalGeneration"]
32128
null
null
null
null
null
null
null
null
null
True
null
null
null
null
null
1
null
null
null
false
null
null
false
false
false
true
false
false
false
false
false
false
null
null
null
970
922-CA/Llama-3-monika-ddlc-8b-v1
llama
["LlamaForCausalLM"]
128256
float16
4.38.2
4,096
14,336
32
32
8
silu
0
True
8,192
500,000
0.00001
0.02
128000
128001
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
971
922-CA/Llama-3-natsuki-ddlc-8b-v1
llama
["LlamaForCausalLM"]
128256
float16
4.40.2
4,096
14,336
32
32
8
silu
0
True
8,192
500,000
0.00001
0.02
128000
128001
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
972
922-SY/Llama-3-dt1
llama
["LlamaForCausalLM"]
128256
float16
4.41.0
4,096
14,336
32
32
8
silu
0
True
8,192
500,000
0.00001
0.02
128000
128001
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
973
922-SY/Moenika-Luna-2x7b-v0.6
mixtral
["MixtralForCausalLM"]
32000
float32
4.39.3
4,096
14,336
32
32
8
silu
0
False
32,768
10,000
0.00001
0.02
1
2
false
128
4
false
2
2
false
false
false
false
false
false
false
true
true
true
6.442451
medium
very_long
974
922-SY/gemma-2-9b-dt2-gguf
gemma2
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
975
922CA/Llama-3-monika-ddlc-11.5b-v1
llama
["LlamaForCausalLM"]
128256
float16
4.40.2
4,096
14,336
48
32
8
silu
0
True
8,192
500,000
0.00001
0.02
128000
128001
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
9.663676
large
long
976
922CA/Silicon-Monika-7b
mistral
["MistralForCausalLM"]
32000
float16
4.37.2
4,096
14,336
32
32
8
silu
0
True
8,192
10,000
0.00001
0.02
1
2
false
128
4
false
null
null
false
false
false
false
false
false
true
false
true
true
6.442451
medium
long
977
922CA/Silicon-Monika-7b-gguf
mistral
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
true
false
false
false
null
null
null
978
922CA/l2-7b-fmg9-gfl-v0.1a
llama
["LlamaForCausalLM"]
32000
float16
4.31.0
4,096
11,008
32
32
32
silu
null
True
2,048
null
0.000001
0.02
1
2
false
128
1
false
null
null
true
false
false
false
false
false
false
false
false
true
6.442451
medium
medium
979
96harsh56/bert_test2
bert
["BertForQuestionAnswering"]
30522
float32
4.25.1
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
980
97jmlr/a2c-PandaReachDense-v2
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
true
null
null
null
981
97jmlr/a2cAnt
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
982
97jmlr/ppo-SnowballTarget
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
983
97jmlr/pyramids
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
984
999G/test
gemma2
["Gemma2ForCausalLM"]
256000
bfloat16
4.51.3
2,304
9,216
26
8
4
gelu_pytorch_tanh
0
True
8,192
10,000
0.000001
0.02
2
[1, 107]
null
288
2
false
null
null
false
false
false
false
false
false
false
false
true
true
1.656226
medium
long
985
99eren99/ColBERT-XM-v2
xmod
["XmodModel"]
250004
float32
4.48.2
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
false
false
false
false
false
false
false
false
false
0.084935
small
short
986
9imrane9/model
xlm-roberta
["XLMRobertaForMaskedLM"]
250002
float32
4.51.3
1,024
4,096
24
16
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.30199
small
short
987
9sub/llama3_10epoch
llama
["LlamaForCausalLM"]
128256
float32
4.40.1
4,096
14,336
32
32
8
silu
0
False
8,192
500,000
0.00001
0.02
128000
128009
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
988
9sub/llama3_10epoch_no_quantize
llama
["LlamaForCausalLM"]
128256
float32
4.40.1
4,096
14,336
32
32
8
silu
0
False
8,192
500,000
0.00001
0.02
128000
128009
false
128
4
false
null
null
true
false
false
false
false
false
false
false
true
true
6.442451
medium
long
989
9unu/formal_speech_translation
t5
["T5ForConditionalGeneration"]
50358
float32
4.39.3
null
null
null
null
null
null
null
True
null
null
null
null
null
1
false
null
null
false
null
null
false
false
false
true
false
false
false
false
false
false
null
null
null
990
9wimu9/roberta-base-sinhala-53m
roberta
["RobertaForMaskedLM"]
52000
float32
4.28.0
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
991
9wimu9/sinhala-bart-large
bart
["BartForConditionalGeneration"]
84000
null
4.30.0.dev0
null
null
12
null
null
null
0.1
True
1,024
null
null
null
0
2
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
short
992
A-Bar/debiased_opt-2.7b_2k_0.8
opt
["OPTForCausalLM"]
50272
float32
4.47.1
2,560
null
32
32
null
null
0
True
2,048
null
null
null
2
2
null
80
null
false
null
null
false
false
false
false
false
false
false
false
false
false
2.516582
medium
medium
993
A-Common-Guy/roberta-base-binary-classifier
roberta
["RobertaForSequenceClassification"]
50265
float32
4.50.3
768
3,072
12
12
null
gelu
null
True
514
null
null
0.02
0
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
994
A-Funakoshi/bert-finetuned-multilingual-sentiments
bert
["BertForSequenceClassification"]
32000
float32
4.32.0.dev0
768
3,072
12
12
null
gelu
null
True
512
null
null
0.02
null
null
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.084935
small
short
995
A-POR-LOS-8000/distilhubert-finetuned-mixed-data
hubert
["HubertForSequenceClassification"]
32
float32
4.44.2
768
3,072
2
12
null
gelu
0.1
null
null
null
null
0.02
1
2
null
64
null
false
null
null
false
true
false
false
false
false
false
false
false
false
0.014156
small
null
996
A-humanBeingTrained/microsoft_test
llama
["LlamaForCausalLM"]
32000
float32
4.32.1
2,048
5,632
22
32
4
silu
null
True
2,048
null
0.00001
0.02
1
2
false
64
8
false
null
null
true
false
false
false
false
false
false
false
true
true
1.107296
medium
medium
997
A-keven/everflora-textgen-model
gpt2
["GPT2LMHeadModel"]
50257
float32
4.51.3
null
null
null
null
null
null
null
True
null
null
null
0.02
50256
50256
null
null
null
false
null
null
false
false
true
false
false
false
false
false
false
false
null
null
null
998
A-m-a-n/unit1-rl_course
null
[]
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
false
null
null
false
false
false
false
false
false
false
false
false
false
null
null
null
999
A01794620/distilbert-base-uncased-finetuned-emotion-full-sets
distilbert
["DistilBertForSequenceClassification"]
30522
float32
4.41.2
null
null
null
null
null
null
0.1
null
512
null
null
0.02
null
null
null
null
null
false
null
null
false
true
false
false
false
false
false
false
false
false
null
null
short