| | --- |
| | language: |
| | - code |
| | pretty_name: "resume ner dataseet" |
| | tags: |
| | - ner |
| | license: "bsd" |
| | task_categories: |
| | - token-classification |
| | --- |
| | |
| | 中文 resume ner 数据集, 来源: https://github.com/luopeixiang/named_entity_recognition 。 |
| |
|
| | 数据的格式如下,它的每一行由一个字及其对应的标注组成,标注集采用BIOES,句子之间用一个空行隔开。 |
| |
|
| | ```text |
| | 美 B-LOC |
| | 国 E-LOC |
| | 的 O |
| | 华 B-PER |
| | 莱 I-PER |
| | 士 E-PER |
| | |
| | 我 O |
| | 跟 O |
| | 他 O |
| | 谈 O |
| | 笑 O |
| | 风 O |
| | 生 O |
| | ``` |
| |
|
| | # 效果 |
| | ## 不同模型的效果对比: |
| |
|
| | <img src="https://file.ddot.cc/imagehost/2023/8bb93212-5812-4211-91b8-7a6bda841e1b.png"> |
| |
|
| | ## Bert-tiny 结果 |
| | |model | precision | recall | f1-score | support | |
| | |---|---|---|---|---| |
| | |BERT-tiny | 0.9490 | 0.9538 | 0.9447 | 全部 | |
| | |BERT-tiny | 0.9278 | 0.9251 | 0.9313 | 使用 100 train | |
| |
|
| | 注: |
| | - 后面再测试,BERT-tiny(softmax) + 100 训练样本,暂时没有复现 0.9313 的结果,最好结果 0.8612 |
| | - BERT-tiny + LSTM(softmax) + 100 样本,`val_f1` 可达 0.8737 |
| |
|
| |
|