hc99's picture
Add files using upload-large-folder tool
e4b9a7b verified
# -*- coding: utf-8 -*-
# SPDX-FileCopyrightText: 2016-2025 PyThaiNLP Project
# SPDX-FileType: SOURCE
# SPDX-License-Identifier: Apache-2.0
import unittest
from pythainlp.summarize import extract_keywords, summarize
INPUT_TEXT = (
"อาหาร หมายถึง ของแข็งหรือของเหลว "
"ที่กินหรือดื่มเข้าสู่ร่างกายแล้ว "
"จะทำให้เกิดพลังงานและความร้อนแก่ร่างกาย "
"ทำให้ร่างกายเจริญเติบโต "
"ซ่อมแซมส่วนที่สึกหรอ ควบคุมการเปลี่ยนแปลงต่างๆ ในร่างกาย "
"ช่วยทำให้อวัยวะต่างๆ ทำงานได้อย่างปกติ "
"อาหารจะต้องไม่มีพิษและไม่เกิดโทษต่อร่างกาย"
)
class SummarizeTestCaseX(unittest.TestCase):
def test_summarize(self):
self.assertEqual(
summarize(text=INPUT_TEXT, n=1),
["อาหารจะต้องไม่มีพิษและไม่เกิดโทษต่อร่างกาย"],
)
# self.assertIsNotNone(summarize(text, engine="mt5-small"))
# self.assertIsNotNone(summarize([]))
# self.assertIsNotNone(summarize(text, 1, engine="mt5-small"))
self.assertIsNotNone(
summarize(INPUT_TEXT, 1, engine="mt5-cpe-kmutt-thai-sentence-sum")
)
self.assertIsNotNone(summarize(INPUT_TEXT, 1, engine="XX"))
def test_keyword_extraction(self):
self.assertEqual(extract_keywords(""), [])
self.assertEqual(extract_keywords(" "), [])
# test default engine, common case
keywords = extract_keywords(INPUT_TEXT)
expected = ["ซ่อมแซมส่วน", "เจริญเติบโต", "อวัยวะต่างๆ", "ควบคุมการเปลี่ยนแปลง"]
for exp_kw in expected:
self.assertIn(exp_kw, keywords)
# test another engine
for max_kw in (5, 10):
keywords = extract_keywords(
INPUT_TEXT, engine="frequency", max_keywords=max_kw
)
self.assertEqual(len(keywords), max_kw)
# test invalid engine
with self.assertRaises(ValueError):
extract_keywords(INPUT_TEXT, engine="random engine")
# test different tokenizer
keywords = extract_keywords(INPUT_TEXT, tokenizer="attacut")
expected = ["อวัยวะต่างๆ", "ซ่อมแซมส่วน", "เจริญเติบโต", "เกิดพลังงาน"]
for exp_kw in expected:
self.assertIn(exp_kw, keywords)
# test overriding stop words
stpw = "เจริญเติบโต"
keywords = extract_keywords(INPUT_TEXT, stop_words=[stpw])
self.assertNotIn(stpw, keywords)
def test_keybert(self):
from pythainlp.summarize.keybert import KeyBERT
from pythainlp.tokenize import word_tokenize
keybert = KeyBERT()
# test ngram range
ng_ranges = [(1, 1), (1, 2), (2, 2), (3, 3)]
for ng_min, ng_max in ng_ranges:
keywords = keybert.extract_keywords(
INPUT_TEXT, keyphrase_ngram_range=(ng_min, ng_max)
)
for kw in keywords:
self.assertTrue(ng_min <= len(word_tokenize(kw)) <= ng_max)
# test max_keywords
max_kws = 10
keywords = keybert.extract_keywords(INPUT_TEXT, max_keywords=max_kws)
self.assertLessEqual(len(keywords), max_kws)
text_short = "เฮลโหล"
keywords = keybert.extract_keywords(text_short, max_keywords=max_kws)
self.assertLessEqual(len(keywords), max_kws)