Update README.md
Browse files
README.md
CHANGED
|
@@ -6,7 +6,7 @@ tags:
|
|
| 6 |
- medical
|
| 7 |
---
|
| 8 |
|
| 9 |
-
# Model Card for `
|
| 10 |
|
| 11 |
**本モデルは、日本語医療テキストの NER(固有表現抽出)タスク向けに `cl-tohoku/bert-base-japanese-v3` をファインチューニングしたモデルです。**
|
| 12 |
|
|
@@ -24,7 +24,7 @@ tags:
|
|
| 24 |
| **Finetuned from** | cl-tohoku/bert-base-japanese-v3 |
|
| 25 |
|
| 26 |
### モデルソース
|
| 27 |
-
- **Hub リポジトリ**: https://huggingface.co/
|
| 28 |
|
| 29 |
## 利用方法
|
| 30 |
|
|
@@ -32,7 +32,7 @@ tags:
|
|
| 32 |
import torch
|
| 33 |
from transformers import AutoTokenizer, AutoModelForTokenClassification
|
| 34 |
|
| 35 |
-
model_dir = "
|
| 36 |
model = AutoModelForTokenClassification.from_pretrained(model_dir)
|
| 37 |
tokenizer = AutoTokenizer.from_pretrained(checkpoint_dir, use_fast=True)
|
| 38 |
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|
|
|
|
| 6 |
- medical
|
| 7 |
---
|
| 8 |
|
| 9 |
+
# Model Card for `sociocom/MedTXTNER`
|
| 10 |
|
| 11 |
**本モデルは、日本語医療テキストの NER(固有表現抽出)タスク向けに `cl-tohoku/bert-base-japanese-v3` をファインチューニングしたモデルです。**
|
| 12 |
|
|
|
|
| 24 |
| **Finetuned from** | cl-tohoku/bert-base-japanese-v3 |
|
| 25 |
|
| 26 |
### モデルソース
|
| 27 |
+
- **Hub リポジトリ**: https://huggingface.co/sociocom/MedTXTNER
|
| 28 |
|
| 29 |
## 利用方法
|
| 30 |
|
|
|
|
| 32 |
import torch
|
| 33 |
from transformers import AutoTokenizer, AutoModelForTokenClassification
|
| 34 |
|
| 35 |
+
model_dir = "sociocom/MedTXTNER"
|
| 36 |
model = AutoModelForTokenClassification.from_pretrained(model_dir)
|
| 37 |
tokenizer = AutoTokenizer.from_pretrained(checkpoint_dir, use_fast=True)
|
| 38 |
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|