| { | |
| "_name_or_path": "bert-base-uncased", | |
| "activation": "gelu", | |
| "architectures": [ | |
| "BertForMultilabelSequenceClassification" | |
| ], | |
| "attention_dropout": 0.1, | |
| "attention_probs_dropout_prob": 0.1, | |
| "classifier_dropout": null, | |
| "dim": 768, | |
| "dropout": 0.1, | |
| "hidden_act": "gelu", | |
| "hidden_dim": 3072, | |
| "hidden_dropout_prob": 0.1, | |
| "hidden_size": 768, | |
| "id2label": { | |
| "0":"π", | |
| "1":"π", | |
| "2":"π©", | |
| "3":"π", | |
| "4":"π", | |
| "5":"π", | |
| "6":"π", | |
| "7":"π", | |
| "8":"β€", | |
| "9":"π", | |
| "10":"π", | |
| "11":"πΆ", | |
| "12":"π³", | |
| "13":"π―", | |
| "14":"π΄", | |
| "15":"π", | |
| "16":"βΊ", | |
| "17":"π", | |
| "18":"π", | |
| "19":"π", | |
| "20":"π ", | |
| "21":"π", | |
| "22":"π", | |
| "23":"π", | |
| "24":"β₯", | |
| "25":"π", | |
| "26":"π", | |
| "27":"π", | |
| "28":"π", | |
| "29":"π«", | |
| "30":"β", | |
| "31":"π", | |
| "32":"π‘", | |
| "33":"π", | |
| "34":"π’", | |
| "35":"πͺ", | |
| "36":"π", | |
| "37":"π€", | |
| "38":"β", | |
| "39":"π·", | |
| "40":"π", | |
| "41":"π", | |
| "42":"π«", | |
| "43":"π£", | |
| "44":"π", | |
| "45":"π", | |
| "46":"π", | |
| "47":"β‘", | |
| "48":"π§", | |
| "49":"π", | |
| "50":"π", | |
| "51":"π", | |
| "52":"π", | |
| "53":"π", | |
| "54":"π", | |
| "55":"π ", | |
| "56":"π ", | |
| "57":"πͺ", | |
| "58":"π", | |
| "59":"π", | |
| "60":"π", | |
| "61":"π", | |
| "62":"π¬", | |
| "63":"β¨" | |
| }, | |
| "initializer_range": 0.02, | |
| "intermediate_size": 3072, | |
| "label2id": { | |
| "π": "0", | |
| "π": "1", | |
| "π©": "2", | |
| "π": "3", | |
| "π": "4", | |
| "π": "5", | |
| "π": "6", | |
| "π": "7", | |
| "β€": "8", | |
| "π": "9", | |
| "π":"10", | |
| "πΆ":"11", | |
| "π³":"12", | |
| "π―":"13", | |
| "π΄":"14", | |
| "π":"15", | |
| "βΊ":"16", | |
| "π":"17", | |
| "π":"18", | |
| "π":"19", | |
| "π ":"20", | |
| "π":"21", | |
| "π":"22", | |
| "π":"23", | |
| "β₯":"24", | |
| "π":"25", | |
| "π":"26", | |
| "π":"27", | |
| "π":"28", | |
| "π«":"29", | |
| "β":"30", | |
| "π":"31", | |
| "π‘":"32", | |
| "π":"33", | |
| "π’":"34", | |
| "πͺ":"35", | |
| "π":"36", | |
| "π€":"37", | |
| "β":"38", | |
| "π·":"39", | |
| "π":"40", | |
| "π":"41", | |
| "π«":"42", | |
| "π£":"43", | |
| "π":"44", | |
| "π":"45", | |
| "π":"46", | |
| "β‘":"47", | |
| "π§":"48", | |
| "π":"49", | |
| "π":"50", | |
| "π":"51", | |
| "π":"52", | |
| "π":"53", | |
| "π":"54", | |
| "π ":"55", | |
| "π ":"56", | |
| "πͺ":"57", | |
| "π":"58", | |
| "π":"59", | |
| "π":"60", | |
| "π":"61", | |
| "π¬":"62", | |
| "β¨":"63" | |
| }, | |
| "layer_norm_eps": 1e-12, | |
| "max_position_embeddings": 512, | |
| "model_type": "bert", | |
| "n_heads": 12, | |
| "n_layers": 6, | |
| "num_attention_heads": 12, | |
| "num_hidden_layers": 12, | |
| "pad_token_id": 0, | |
| "position_embedding_type": "absolute", | |
| "qa_dropout": 0.1, | |
| "seq_classif_dropout": 0.2, | |
| "sinusoidal_pos_embds": false, | |
| "tie_weights_": true, | |
| "torch_dtype": "float32", | |
| "transformers_version": "4.12.5", | |
| "type_vocab_size": 2, | |
| "use_cache": true, | |
| "vocab_size": 50000 | |
| } |