deepnlp-pos-bert-base / config.json
p988744's picture
Upload folder using huggingface_hub
61d2dd4 verified
{
"architectures": [
"BertForTokenClassification"
],
"attention_probs_dropout_prob": 0.1,
"classifier_dropout": null,
"hidden_act": "gelu",
"hidden_dropout_prob": 0.1,
"hidden_size": 768,
"id2label": {
"0": "B-Nb",
"1": "I-Nb",
"2": "B-Na",
"3": "I-Na",
"4": "S-Nep",
"5": "S-Nf",
"6": "S-D",
"7": "B-VC",
"8": "I-VC",
"9": "B-Nc",
"10": "I-Nc",
"11": "S-PUNC",
"12": "B-P",
"13": "I-P",
"14": "S-VE",
"15": "B-D",
"16": "I-D",
"17": "B-VK",
"18": "I-VK",
"19": "B-VA",
"20": "I-VA",
"21": "B-VH",
"22": "I-VH",
"23": "S-Nh",
"24": "B-VE",
"25": "I-VE",
"26": "S-SHI",
"27": "B-VG",
"28": "I-VG",
"29": "B-Dfa",
"30": "I-Dfa",
"31": "S-DE",
"32": "B-VB",
"33": "I-VB",
"34": "S-P",
"35": "B-VHC",
"36": "I-VHC",
"37": "B-C",
"38": "I-C",
"39": "B-Nv",
"40": "I-Nv",
"41": "S-T",
"42": "B-Ng",
"43": "I-Ng",
"44": "S-VC",
"45": "S-Neqa",
"46": "B-VJ",
"47": "I-VJ",
"48": "B-Nep",
"49": "I-Nep",
"50": "S-Ng",
"51": "S-VL",
"52": "S-Nes",
"53": "S-Neu",
"54": "S-V_2",
"55": "S-Na",
"56": "S-Dfa",
"57": "S-VH",
"58": "B-A",
"59": "I-A",
"60": "S-Nb",
"61": "S-VG",
"62": "B-Ncd",
"63": "I-Ncd",
"64": "B-Neqa",
"65": "I-Neqa",
"66": "B-FW",
"67": "I-FW",
"68": "S-C",
"69": "B-Nd",
"70": "I-Nd",
"71": "S-Nd",
"72": "B-Neu",
"73": "I-Neu",
"74": "B-VD",
"75": "I-VD",
"76": "S-VA",
"77": "S-Ncd",
"78": "S-Nc",
"79": "S-I",
"80": "S-Da",
"81": "S-VF",
"82": "S-VCL",
"83": "S-VJ",
"84": "B-Nh",
"85": "I-Nh",
"86": "B-VCL",
"87": "I-VCL",
"88": "S-VD",
"89": "B-Dfb",
"90": "I-Dfb",
"91": "B-VF",
"92": "I-VF",
"93": "S-Neqb",
"94": "B-VL",
"95": "I-VL",
"96": "S-VK",
"97": "B-Da",
"98": "I-Da",
"99": "S-Dfb",
"100": "B-VAC",
"101": "I-VAC",
"102": "B-VI",
"103": "I-VI",
"104": "B-T",
"105": "I-T",
"106": "B-SHI",
"107": "I-SHI",
"108": "S-VHC",
"109": "S-VAC",
"110": "S-Nv",
"111": "B-Nf",
"112": "I-Nf",
"113": "B-I",
"114": "I-I",
"115": "S-A",
"116": "S-FW",
"117": "S-VB",
"118": "B-PUNC",
"119": "I-PUNC",
"120": "B-Nes",
"121": "I-Nes",
"122": "B-Neqb",
"123": "I-Neqb",
"124": "S-VI",
"125": "B-Nad",
"126": "I-Nad",
"127": "B-Dc",
"128": "I-Dc",
"129": "S-DK",
"130": "B-DE",
"131": "I-DE",
"132": "B-Nac",
"133": "I-Nac"
},
"initializer_range": 0.02,
"intermediate_size": 3072,
"label2id": {
"B-A": 58,
"B-C": 37,
"B-D": 15,
"B-DE": 130,
"B-Da": 97,
"B-Dc": 127,
"B-Dfa": 29,
"B-Dfb": 89,
"B-FW": 66,
"B-I": 113,
"B-Na": 2,
"B-Nac": 132,
"B-Nad": 125,
"B-Nb": 0,
"B-Nc": 9,
"B-Ncd": 62,
"B-Nd": 69,
"B-Nep": 48,
"B-Neqa": 64,
"B-Neqb": 122,
"B-Nes": 120,
"B-Neu": 72,
"B-Nf": 111,
"B-Ng": 42,
"B-Nh": 84,
"B-Nv": 39,
"B-P": 12,
"B-PUNC": 118,
"B-SHI": 106,
"B-T": 104,
"B-VA": 19,
"B-VAC": 100,
"B-VB": 32,
"B-VC": 7,
"B-VCL": 86,
"B-VD": 74,
"B-VE": 24,
"B-VF": 91,
"B-VG": 27,
"B-VH": 21,
"B-VHC": 35,
"B-VI": 102,
"B-VJ": 46,
"B-VK": 17,
"B-VL": 94,
"I-A": 59,
"I-C": 38,
"I-D": 16,
"I-DE": 131,
"I-Da": 98,
"I-Dc": 128,
"I-Dfa": 30,
"I-Dfb": 90,
"I-FW": 67,
"I-I": 114,
"I-Na": 3,
"I-Nac": 133,
"I-Nad": 126,
"I-Nb": 1,
"I-Nc": 10,
"I-Ncd": 63,
"I-Nd": 70,
"I-Nep": 49,
"I-Neqa": 65,
"I-Neqb": 123,
"I-Nes": 121,
"I-Neu": 73,
"I-Nf": 112,
"I-Ng": 43,
"I-Nh": 85,
"I-Nv": 40,
"I-P": 13,
"I-PUNC": 119,
"I-SHI": 107,
"I-T": 105,
"I-VA": 20,
"I-VAC": 101,
"I-VB": 33,
"I-VC": 8,
"I-VCL": 87,
"I-VD": 75,
"I-VE": 25,
"I-VF": 92,
"I-VG": 28,
"I-VH": 22,
"I-VHC": 36,
"I-VI": 103,
"I-VJ": 47,
"I-VK": 18,
"I-VL": 95,
"S-A": 115,
"S-C": 68,
"S-D": 6,
"S-DE": 31,
"S-DK": 129,
"S-Da": 80,
"S-Dfa": 56,
"S-Dfb": 99,
"S-FW": 116,
"S-I": 79,
"S-Na": 55,
"S-Nb": 60,
"S-Nc": 78,
"S-Ncd": 77,
"S-Nd": 71,
"S-Nep": 4,
"S-Neqa": 45,
"S-Neqb": 93,
"S-Nes": 52,
"S-Neu": 53,
"S-Nf": 5,
"S-Ng": 50,
"S-Nh": 23,
"S-Nv": 110,
"S-P": 34,
"S-PUNC": 11,
"S-SHI": 26,
"S-T": 41,
"S-VA": 76,
"S-VAC": 109,
"S-VB": 117,
"S-VC": 44,
"S-VCL": 82,
"S-VD": 88,
"S-VE": 14,
"S-VF": 81,
"S-VG": 61,
"S-VH": 57,
"S-VHC": 108,
"S-VI": 124,
"S-VJ": 83,
"S-VK": 96,
"S-VL": 51,
"S-V_2": 54
},
"layer_norm_eps": 1e-12,
"max_position_embeddings": 512,
"model_type": "bert",
"num_attention_heads": 12,
"num_hidden_layers": 12,
"pad_token_id": 0,
"position_embedding_type": "absolute",
"transformers_version": "4.57.3",
"type_vocab_size": 2,
"use_cache": true,
"vocab_size": 21128
}