| { |
| "architectures": [ |
| "BertForSequenceClassification" |
| ], |
| "attention_probs_dropout_prob": 0.1, |
| "classifier_dropout": null, |
| "directionality": "bidi", |
| "hidden_act": "gelu", |
| "hidden_dropout_prob": 0.1, |
| "hidden_size": 768, |
| "id2label": { |
| "0": "af", |
| "1": "am", |
| "2": "ar", |
| "3": "as", |
| "4": "az", |
| "5": "be", |
| "6": "bg", |
| "7": "bn", |
| "8": "bn_rom", |
| "9": "br", |
| "10": "bs", |
| "11": "ca", |
| "12": "cs", |
| "13": "cy", |
| "14": "da", |
| "15": "de", |
| "16": "el", |
| "17": "en", |
| "18": "eo", |
| "19": "es", |
| "20": "et", |
| "21": "eu", |
| "22": "fa", |
| "23": "ff", |
| "24": "fi", |
| "25": "fr", |
| "26": "fy", |
| "27": "ga", |
| "28": "gd", |
| "29": "gl", |
| "30": "gn", |
| "31": "gu", |
| "32": "ha", |
| "33": "he", |
| "34": "hi", |
| "35": "hi_rom", |
| "36": "hr", |
| "37": "ht", |
| "38": "hu", |
| "39": "hy", |
| "40": "id", |
| "41": "ig", |
| "42": "is", |
| "43": "it", |
| "44": "ja", |
| "45": "jv", |
| "46": "ka", |
| "47": "kk", |
| "48": "km", |
| "49": "kn", |
| "50": "ko", |
| "51": "ku", |
| "52": "ky", |
| "53": "la", |
| "54": "lg", |
| "55": "li", |
| "56": "ln", |
| "57": "lo", |
| "58": "lt", |
| "59": "lv", |
| "60": "mg", |
| "61": "mk", |
| "62": "ml", |
| "63": "mn", |
| "64": "mr", |
| "65": "ms", |
| "66": "my", |
| "67": "my_zaw", |
| "68": "ne", |
| "69": "nl", |
| "70": "no", |
| "71": "ns", |
| "72": "om", |
| "73": "or", |
| "74": "pa", |
| "75": "pl", |
| "76": "ps", |
| "77": "pt", |
| "78": "qu", |
| "79": "rm", |
| "80": "ro", |
| "81": "ru", |
| "82": "sa", |
| "83": "sc", |
| "84": "sd", |
| "85": "si", |
| "86": "sk", |
| "87": "sl", |
| "88": "so", |
| "89": "sq", |
| "90": "sr", |
| "91": "ss", |
| "92": "su", |
| "93": "sv", |
| "94": "sw", |
| "95": "ta", |
| "96": "ta_rom", |
| "97": "te", |
| "98": "te_rom", |
| "99": "th", |
| "100": "tl", |
| "101": "tn", |
| "102": "tr", |
| "103": "ug", |
| "104": "uk", |
| "105": "ur", |
| "106": "ur_rom", |
| "107": "uz", |
| "108": "vi", |
| "109": "wo", |
| "110": "xh", |
| "111": "yi", |
| "112": "yo", |
| "113": "zh-Hans", |
| "114": "zh-Hant", |
| "115": "zu" |
| }, |
| "initializer_range": 0.02, |
| "intermediate_size": 3072, |
| "label2id": { |
| "af": 0, |
| "am": 1, |
| "ar": 2, |
| "as": 3, |
| "az": 4, |
| "be": 5, |
| "bg": 6, |
| "bn": 7, |
| "bn_rom": 8, |
| "br": 9, |
| "bs": 10, |
| "ca": 11, |
| "cs": 12, |
| "cy": 13, |
| "da": 14, |
| "de": 15, |
| "el": 16, |
| "en": 17, |
| "eo": 18, |
| "es": 19, |
| "et": 20, |
| "eu": 21, |
| "fa": 22, |
| "ff": 23, |
| "fi": 24, |
| "fr": 25, |
| "fy": 26, |
| "ga": 27, |
| "gd": 28, |
| "gl": 29, |
| "gn": 30, |
| "gu": 31, |
| "ha": 32, |
| "he": 33, |
| "hi": 34, |
| "hi_rom": 35, |
| "hr": 36, |
| "ht": 37, |
| "hu": 38, |
| "hy": 39, |
| "id": 40, |
| "ig": 41, |
| "is": 42, |
| "it": 43, |
| "ja": 44, |
| "jv": 45, |
| "ka": 46, |
| "kk": 47, |
| "km": 48, |
| "kn": 49, |
| "ko": 50, |
| "ku": 51, |
| "ky": 52, |
| "la": 53, |
| "lg": 54, |
| "li": 55, |
| "ln": 56, |
| "lo": 57, |
| "lt": 58, |
| "lv": 59, |
| "mg": 60, |
| "mk": 61, |
| "ml": 62, |
| "mn": 63, |
| "mr": 64, |
| "ms": 65, |
| "my": 66, |
| "my_zaw": 67, |
| "ne": 68, |
| "nl": 69, |
| "no": 70, |
| "ns": 71, |
| "om": 72, |
| "or": 73, |
| "pa": 74, |
| "pl": 75, |
| "ps": 76, |
| "pt": 77, |
| "qu": 78, |
| "rm": 79, |
| "ro": 80, |
| "ru": 81, |
| "sa": 82, |
| "sc": 83, |
| "sd": 84, |
| "si": 85, |
| "sk": 86, |
| "sl": 87, |
| "so": 88, |
| "sq": 89, |
| "sr": 90, |
| "ss": 91, |
| "su": 92, |
| "sv": 93, |
| "sw": 94, |
| "ta": 95, |
| "ta_rom": 96, |
| "te": 97, |
| "te_rom": 98, |
| "th": 99, |
| "tl": 100, |
| "tn": 101, |
| "tr": 102, |
| "ug": 103, |
| "uk": 104, |
| "ur": 105, |
| "ur_rom": 106, |
| "uz": 107, |
| "vi": 108, |
| "wo": 109, |
| "xh": 110, |
| "yi": 111, |
| "yo": 112, |
| "zh-Hans": 113, |
| "zh-Hant": 114, |
| "zu": 115 |
| }, |
| "layer_norm_eps": 1e-12, |
| "max_position_embeddings": 512, |
| "model_type": "bert", |
| "num_attention_heads": 12, |
| "num_hidden_layers": 12, |
| "pad_token_id": 0, |
| "pooler_fc_size": 768, |
| "pooler_num_attention_heads": 12, |
| "pooler_num_fc_layers": 3, |
| "pooler_size_per_head": 128, |
| "pooler_type": "first_token_transform", |
| "position_embedding_type": "absolute", |
| "problem_type": "single_label_classification", |
| "torch_dtype": "float32", |
| "transformers_version": "4.51.3", |
| "type_vocab_size": 2, |
| "use_cache": true, |
| "vocab_size": 119547 |
| } |
|
|