File size: 5,506 Bytes
dab1047
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
# generate_question.py
import json
from difflib import SequenceMatcher
from transformers import T5Tokenizer, T5ForConditionalGeneration
from transformers.utils import logging as hf_logging

# ===== Giảm ồn cảnh báo của transformers =====
hf_logging.set_verbosity_error()

# ===== Cấu hình đường dẫn =====
MODEL_DIR = "t5-viet-qg-finetuned"  # thư mục model đã fine-tune
DATA_PATH = "30ktrain.json"        # file JSON dữ liệu gốc

# ===== Load model & tokenizer 1 lần =====
tokenizer = T5Tokenizer.from_pretrained(MODEL_DIR)
model = T5ForConditionalGeneration.from_pretrained(MODEL_DIR)

def find_best_match_from_context(user_context, squad_data):
    """

    Tìm bản ghi gần nhất dựa trên article.title (giữ đúng logic code gốc).

    Trả về tuple (context_title, answer_text, question_text) hoặc None.

    """
    best_score, best_entry = 0.0, None
    ui = user_context.lower()

    for article in squad_data.get("data", []):
        context_title = article.get("title", "")
        score_title = SequenceMatcher(None, ui, context_title.lower()).ratio()

        for paragraph in article.get("paragraphs", []):
            for qa in paragraph.get("qas", []):
                answers = qa.get("answers", [])
                if not answers:
                    continue
                answer_text = answers[0].get("text", "").strip()
                question_text = qa.get("question", "").strip()

                score = score_title
                if score > best_score:
                    best_score = score
                    best_entry = (context_title, answer_text, question_text)

    return best_entry

def _near_duplicate(q, seen, thr=0.90):
    """Loại câu gần trùng dựa trên tỉ lệ giống nhau."""
    for s in seen:
        if SequenceMatcher(None, q, s).ratio() >= thr:
            return True
    return False

def generate_questions(user_context,

                       total_questions=20,

                       batch_size=10,

                       top_k=60,

                       top_p=0.95,

                       temperature=0.9,

                       max_input_len=512,

                       max_new_tokens=64):
    # Load dữ liệu JSON
    with open(DATA_PATH, "r", encoding="utf-8") as f:
        squad_data = json.load(f)

    # Tìm bản ghi gần giống nhất (KHÔNG in ra màn hình)
    best_entry = find_best_match_from_context(user_context, squad_data)
    if best_entry is None:
        print("❌ Không tìm thấy dữ liệu phù hợp trong file JSON.")
        return

    _, answer, _ = best_entry  # chỉ cần answer gốc để bảo toàn tính toàn vẹn

    # Chuẩn bị input cho mô hình (đặt max_length để tránh cảnh báo truncate)
    input_text = f"answer: {answer} context: {user_context}"
    inputs = tokenizer(
        input_text,
        return_tensors="pt",
        truncation=True,
        max_length=max_input_len
    )

    # Sinh nhiều câu hỏi theo lô để tiết kiệm RAM
    unique_questions = []
    remaining = total_questions

    while remaining > 0:
        n = min(batch_size, remaining)
        outputs = model.generate(
            **inputs,
            do_sample=True,
            top_k=top_k,
            top_p=top_p,
            temperature=temperature,
            max_new_tokens=max_new_tokens,   # chiều dài phần sinh
            num_return_sequences=n,
            no_repeat_ngram_size=3,
            repetition_penalty=1.12
        )

        for out in outputs:
            q = tokenizer.decode(out, skip_special_tokens=True).strip()
            if len(q) < 5:  # lọc câu quá ngắn
                continue
            if not _near_duplicate(q, unique_questions, thr=0.90):
                unique_questions.append(q)

        remaining = total_questions - len(unique_questions)
        if remaining <= 0:
            break

    # Cắt đúng số lượng yêu cầu
    unique_questions = unique_questions[:total_questions]

    print("✅ Các câu hỏi mới được sinh ra:")
    for i, q in enumerate(unique_questions, 1):
        print(f"{i}. {q}")

if __name__ == "__main__":
    # Nhập đoạn văn
    user_context = input("\nNhập đoạn văn bản:\n ").strip()

    # Nhập số lượng câu hỏi cần sinh (tùy biến)
    raw_n = input("\nNhập vào số lượng câu hỏi bạn cần:").strip()
    if raw_n == "":
        total_questions = 20
    else:
        try:
            total_questions = int(raw_n)
        except ValueError:
            print("⚠️ Giá trị không hợp lệ. Dùng mặc định 20.")
            total_questions = 20

    # Ràng buộc an toàn
    if total_questions < 1:
        total_questions = 1
    if total_questions > 200:
        print("⚠️ Giới hạn tối đa 200 câu. Sẽ sinh 200 câu.")
        total_questions = 200

    # batch_size tự động theo quy mô
    batch_size = 10 if total_questions >= 30 else min(10, total_questions)

    # Thông báo phân tích
    print("\n🔍 Đang phân tích dữ liệu...\n")

    generate_questions(
        user_context=user_context,
        total_questions=total_questions,
        batch_size=batch_size,
        top_k=60,
        top_p=0.95,
        temperature=0.9,
        max_input_len=512,
        max_new_tokens=64
    )