File size: 4,045 Bytes
e4b9a7b | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 | Command Line
============
You can use some thainlp functions directly from command line.
**Tokenization**::
thainlp tokenize <word|syllable|subword|sent> [-w] [-nw] [-a newmm|attacut|longest] [-s SEPARATOR] TEXT
*Example*::
$ thainlp tokenize word สภาพการจ้างและสภาพการทำงาน
สภาพการจ้าง|และ|สภาพ|การทำงาน|
$ thainlp tokenize syllable สภาพการจ้างและสภาพการทำงาน
สภาพ~การ~จ้าง~และ~สภาพ~การ~ทำ~งาน~
$ thainlp tokenize subword สภาพการจ้างและสภาพการทำงาน
ส/ภา/พ/กา/ร/จ้า/ง/และ/ส/ภา/พ/กา/ร/ทำ/งา/น/
$ thainlp tokenize word -a longest "แรงงานกะดึก: ฟันเฟืองที่ยังหมุนในคำ่คืนมีเคอร์ฟิว"
แรงงาน|กะ|ดึก|:| |ฟันเฟือง|ที่|ยัง|หมุน|ใน|คำ่|คืน|มี|เคอร์ฟิว|
$ thainlp tokenize word -nw -s "##" "5 เหตุผล 'ไม่ควร' ต่อพ.ร.ก.ฉุกเฉิน"
5##เหตุผล##'##ไม่##ควร##'##ต่อ##พ.ร.ก.##ฉุกเฉิน##
$ thainlp tokenize sent "หลายปีที่ผ่านมา ชาวชุมชนโคกยาวหลายคนได้พากันย้ายออก บ้างก็เสียชีวิต บางคนถูกจำคุกในข้อบุกรุกป่าหรือแม้กระทั่งสูญหาย"
หลายปีที่ผ่านมา @@ชาวชุมชนโคกยาวหลายคนได้พากันย้ายออก @@บ้างก็เสียชีวิต @@บางคนถูกจำคุกในข้อบุกรุกป่าหรือแม้กระทั่งสูญหาย@@
**Part-Of-Speech tagging**::
pythainlp tagg pos [-s SEPARATOR] TEXT
*Example*::
$ thainlp tag pos -s . ผม.ไม่.กิน.เผ็ด
**Soundex**::
thainlp soundex [-a udom83|lk82|metasound] TEXT
*Example*::
$ thainlp soundex วรรณ
ว330000
$ thainlp soundex -a lk82 วัน
ว4000
$ thainlp soundex -a lk82 วรรณ
ว4000
**Corpus management**::
thainlp data <catalog|info|get|rm|path>
*Example*::
$ thainlp data path
/Users/user1/pythainlp-data
$ thainlp data catalog
Dataset/corpus available for download:
- crfcut 0.1
- thai-g2p 0.1 (Local: 0.1)
- thai2fit_wv 0.1
- thainer-1-3 1.3
$ thainlp data get thai2fit_wv
Corpus: thai2fit_wv
- Downloading: thai2fit_wv 0.1
36%|█████████████████▉ |
$ thainlp data --help
**Benchmark**::
thainlp benchmark word-tokenization --input-file <source> --test-file <label> [--save-details]
*Example*::
$thainlp benchmark word-tokenization --input-file wisesight-1000-deepcut.txt --test-file wisesight-1000.label
Benchmarking wisesight-1000-deepcut.txt against .wisesight-1000.label with 993 samples in total
============== Benchmark Result ==============
char_level:tp 17654.0000
char_level:fn 1153.0000
char_level:tn 50755.0000
char_level:fp 1478.0000
char_level:precision 0.9227
char_level:recall 0.9387
word_level:total_words_in_sample 19132.0000
word_level:total_words_in_ref_sample 18807.0000
word_level:correctly_tokenised_words 15637.0000
word_level:precision 0.8173
word_level:recall 0.8314
**Help**::
thainlp --help
|