import gradio as gr import re import os import requests import json import logging from typing import Dict, List, Tuple from llm_sender_unified import create_llm_sender, AVAILABLE_MODELS # ✅ import ماژول جدید logging.basicConfig(level=logging.INFO) logger = logging.getLogger(__name__) class AnonymizerAdvanced: """ناشناس‌ساز پیشرفته با روش‌های متعدد""" def __init__(self, cerebras_key: str = None, llm_provider: str = "chatgpt", llm_model: str = None): self.cerebras_key = cerebras_key or os.getenv("CEREBRAS_API_KEY") self.llm_provider = llm_provider self.llm_model = llm_model self.mapping_table = {} # {placeholder: original_text} self.reverse_mapping = {} # {original_text: placeholder} # ✅ ایجاد LLM sender بر اساس provider انتخابی self._create_llm_sender() logger.info(f"✅ Anonymizer Advanced مقداردهی شد با {llm_provider}") def _create_llm_sender(self): """ایجاد LLM sender مناسب""" try: # گرفتن API key مناسب if self.llm_provider == "chatgpt": api_key = os.getenv("OPENAI_API_KEY") elif self.llm_provider == "grok": api_key = os.getenv("XAI_API_KEY") else: api_key = None # ایجاد sender self.llm_sender = create_llm_sender( provider=self.llm_provider, api_key=api_key, model=self.llm_model ) logger.info(f"✅ LLM Sender ایجاد شد: {self.llm_provider} - {self.llm_sender.model}") except Exception as e: logger.error(f"❌ خطا در ایجاد LLM Sender: {e}") # fallback to ChatGPT self.llm_sender = create_llm_sender("chatgpt") def set_llm_provider(self, provider: str, model: str = None): """تغییر provider و مدل LLM""" self.llm_provider = provider self.llm_model = model self._create_llm_sender() logger.info(f"✅ LLM تغییر یافت به: {provider} - {model}") def anonymize_with_cerebras(self, text: str) -> Tuple[str, Dict]: """ناشناس‌سازی با Cerebras - دریافت mapping از مدل""" logger.info("🧠 روش Cerebras...") if not self.cerebras_key: logger.error("❌ Cerebras API Key موجود نیست") raise ValueError("Cerebras API Key مورد نیاز است") try: # مرحله 1: ناشناس‌سازی متن prompt1 = f"""متن زیر را ناشناس کنید. قوانین: 1. اسامی اشخاص → person-01, person-02, ... 2. نام شرکت‌ها/سازمان‌ها → company-01, company-02, ... 3. مقادیر پولی → amount-01, amount-02, ... 4. درصدها → percent-01, percent-02, ... 5. فقط این توکن‌ها استفاده کنید 6. شماره‌های نسخه را درست حفظ کنید 7. اگر موجودیت تکرار شود از شماره قدیمی استفاده کنید متن: {text} خروجی: فقط متن ناشناس شده""" response1 = requests.post( "https://api.cerebras.ai/v1/chat/completions", headers={ "Authorization": f"Bearer {self.cerebras_key}", "Content-Type": "application/json" }, json={ "model": "llama-3.3-70b", "messages": [{"role": "user", "content": prompt1}], "max_tokens": 4096, "temperature": 0.1 }, timeout=60 ) if response1.status_code != 200: logger.error(f"❌ Cerebras Error: {response1.status_code}") raise Exception(f"Cerebras API Error: {response1.status_code}") anonymized_text = response1.json()['choices'][0]['message']['content'].strip() logger.info("✅ Cerebras: ناشناس‌سازی موفق") # مرحله 2: استخراج mapping از مدل prompt2 = f"""متن اصلی: {text} متن ناشناس شده: {anonymized_text} لطفاً یک جدول mapping برای همه توکن‌های ناشناس ایجاد کن. برای هر توکن، متن اصلی کامل آن را مشخص کن. **مهم:** - برای person-XX: نام کامل شخص (مثلاً "علی احمدی") - برای company-XX: نام کامل شرکت/سازمان (مثلاً "شرکت پتروشیمی") - برای amount-XX: عدد + واحد (مثلاً "80 هزار تومان" یا "50 میلیارد ریال") - برای percent-XX: عدد + کلمه "درصد" (مثلاً "40 درصد" نه فقط "40") خروجی را به این فرمت JSON بده (فقط JSON، بدون توضیح اضافی): {{ "person-01": "متن اصلی کامل", "company-01": "متن اصلی کامل", "amount-01": "متن اصلی کامل با واحد", "percent-01": "عدد + درصد", ... }}""" response2 = requests.post( "https://api.cerebras.ai/v1/chat/completions", headers={ "Authorization": f"Bearer {self.cerebras_key}", "Content-Type": "application/json" }, json={ "model": "llama-3.3-70b", "messages": [{"role": "user", "content": prompt2}], "max_tokens": 2048, "temperature": 0.1 }, timeout=60 ) if response2.status_code == 200: mapping_text = response2.json()['choices'][0]['message']['content'].strip() # پاک‌سازی و parse کردن JSON # حذف markdown code blocks اگر وجود داشته باشه mapping_text = mapping_text.replace('```json', '').replace('```', '').strip() try: self.mapping_table = json.loads(mapping_text) # پست-پروسسینگ: اصلاح mapping برای percent ها self._fix_percent_mapping() # ساخت reverse mapping self.reverse_mapping = {v: k for k, v in self.mapping_table.items()} logger.info(f"✅ Mapping استخراج شد: {len(self.mapping_table)} موجودیت") except json.JSONDecodeError: logger.warning("⚠️ خطا در parse کردن JSON mapping - استفاده از روش fallback") self._extract_mapping_from_text(text, anonymized_text) else: logger.warning("⚠️ خطا در دریافت mapping - استفاده از روش fallback") self._extract_mapping_from_text(text, anonymized_text) return anonymized_text, self.mapping_table except Exception as e: logger.error(f"❌ Cerebras Exception: {e}") raise def _fix_percent_mapping(self): """اصلاح mapping برای درصدها و مقادیر - اضافه کردن واحدها اگر فقط عدد باشد""" for token, value in self.mapping_table.items(): value_str = str(value).strip() if token.startswith('percent-'): # چک کنیم آیا کلمه "درصد" یا "%" در value هست if not re.search(r'(درصد|%|درصدی)', value_str): # فقط عدد هست، کلمه "درصد" رو اضافه کن self.mapping_table[token] = f"{value_str} درصد" logger.info(f"✅ اصلاح {token}: '{value_str}' → '{value_str} درصد'") elif token.startswith('amount-'): # چک کنیم آیا واحد پولی در value هست if not re.search(r'(میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)', value_str): # فقط عدد هست، احتمالاً باید واحد اضافه بشه # اما نمی‌دونیم چه واحدی، پس warning بده logger.warning(f"⚠️ {token}: فقط عدد '{value_str}' - واحد مشخص نیست") def _extract_mapping_from_text(self, original: str, anonymized: str): """استخراج mapping از متن‌های اصلی و ناشناس شده - نسخه بهبود یافته""" # استخراج همه توکن‌های ناشناس از متن ناشناس‌سازی شده all_tokens = [] for entity_type in ['person', 'company', 'amount', 'percent']: tokens = re.findall(f'{entity_type}-\\d+', anonymized) all_tokens.extend([(t, entity_type) for t in tokens]) # حذف تکراری‌ها و مرتب‌سازی all_tokens = sorted(set(all_tokens), key=lambda x: (x[1], int(x[0].split('-')[1]))) # الگوهای موجودیت در متن اصلی patterns = { 'person': r'\b[ء-ي]+\s+[ء-ي]+(?:\s+[ء-ي]+)*\b', 'company': r'(?:شرکت|بانک|سازمان|گروه|هلدینگ)\s+[ء-ي]+(?:\s+[ء-ي]+)*', 'amount': r'\d+(?:\.\d+)?\s*(?:میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)', 'percent': r'\d+(?:\.\d+)?\s*(?:درصد|%|درصدی)', } # استخراج موجودیت‌های اصلی original_entities = {} for entity_type, pattern in patterns.items(): matches = list(re.finditer(pattern, original)) original_entities[entity_type] = [m.group().strip() for m in matches] # نگاشت توکن‌ها به موجودیت‌های اصلی for token, entity_type in all_tokens: if entity_type in original_entities and original_entities[entity_type]: # گرفتن شماره توکن (مثلاً از person-01 عدد 1 رو میگیریم) token_num = int(token.split('-')[1]) - 1 if token_num < len(original_entities[entity_type]): original_text = original_entities[entity_type][token_num] self.mapping_table[token] = original_text self.reverse_mapping[original_text] = token else: # اگر شماره توکن بیشتر از تعداد موجودیت‌ها بود # از آخرین موجودیت استفاده کن original_text = original_entities[entity_type][-1] if token not in self.mapping_table: self.mapping_table[token] = original_text self.reverse_mapping[original_text] = token def analyze_with_llm(self, anonymized_text: str, analysis_prompt: str = None) -> str: """ ✅ استفاده از LLM یکپارچه (ChatGPT یا Grok) اجرای پرامپت‌های درون متن ناشناس‌سازی شده """ logger.info(f"🤖 {self.llm_provider.upper()} اجرای پرامپت...") # اگر پرامپتی نیست، فقط متن ناشناس‌سازی شده برگردان if not analysis_prompt or not analysis_prompt.strip(): logger.info("⚠️ پرامپت خالی - بدون تحلیل") return "⚠️ هیچ دستور تحلیل داده نشده است" # ترکیب متن ناشناس‌سازی شده + پرامپت کاربر combined_text = f"""متن ناشناس‌سازی شده: {anonymized_text} دستورات: {analysis_prompt} توجه: در پاسخ از همان کدهای ناشناس (person-XX, company-XX, amount-XX, percent-XX) استفاده کن.""" try: # ✅ ارسال به LLM انتخابی response = self.llm_sender.send_simple(combined_text, lang='fa') logger.info(f"✅ {self.llm_provider.upper()}: {len(response)} کاراکتر") return response except Exception as e: logger.error(f"❌ {self.llm_provider.upper()} Exception: {e}") return f"❌ خطا در ارتباط با {self.llm_provider.upper()}: {str(e)}" def restore_text(self, anonymized_text: str) -> str: """بازگردانی متن ناشناس‌سازی شده به اصلی""" logger.info("🔄 بازگردانی متن...") if not self.mapping_table: logger.warning("⚠️ جدول نگاشت خالی است") return anonymized_text restored = anonymized_text # جایگزینی placeholder ها با متن اصلی for placeholder, original in sorted(self.mapping_table.items()): restored = restored.replace(placeholder, original) logger.info("✅ بازگردانی کامل") return restored def get_mapping_table_md(self) -> str: """تبدیل جدول نگاشت به Markdown""" if not self.mapping_table: return "### 📋 جدول نگاشت\n\nهیچ موجودیتی شناسایی نشد" table = "### 📋 جدول نگاشت\n\n" table += "| شناسه | متن اصلی |\n" table += "|-------|----------|\n" for token, original in sorted(self.mapping_table.items()): table += f"| **{token}** | {original} |\n" return table # متغیر سراسری anonymizer = None def process( input_text: str, analysis_prompt: str, llm_provider: str, llm_model: str ): """پردازش متن - 4 مرحله""" global anonymizer if not input_text.strip(): return "", "", "", "" cerebras_key = os.getenv("CEREBRAS_API_KEY") # ✅ ایجاد یا آپدیت anonymizer با provider و model جدید if not anonymizer: anonymizer = AnonymizerAdvanced( cerebras_key, llm_provider=llm_provider, llm_model=llm_model ) else: # آپدیت provider و model anonymizer.set_llm_provider(llm_provider, llm_model) anonymizer.mapping_table = {} anonymizer.reverse_mapping = {} try: logger.info("=" * 70) logger.info(f"🚀 شروع پردازش - LLM: {llm_provider} ({llm_model})") logger.info("=" * 70) # مرحله 1: ناشناس‌سازی logger.info("📝 مرحله 1: ناشناس‌سازی...") anonymized_text, _ = anonymizer.anonymize_with_cerebras(input_text) logger.info(f"✅ ناشناس‌سازی: {len(anonymized_text)} کاراکتر") # مرحله 2: LLM با متن ناشناس‌سازی شده + دستورات logger.info(f"🤖 مرحله 2: {llm_provider.upper()}...") llm_response = anonymizer.analyze_with_llm(anonymized_text, analysis_prompt) logger.info(f"✅ {llm_provider.upper()}: {len(llm_response)} کاراکتر") # مرحله 3: بازگردانی پاسخ LLM logger.info("🔄 مرحله 3: بازگردانی...") restored_text = anonymizer.restore_text(llm_response) logger.info("✅ بازگردانی کامل") # مرحله 4: جدول نگاشت logger.info("📋 مرحله 4: جدول نگاشت...") mapping_str = anonymizer.get_mapping_table_md() logger.info(f"✅ {len(anonymizer.mapping_table)} موجودیت") logger.info("=" * 70) logger.info("✅ تمام مراحل کامل!") logger.info("=" * 70) return restored_text, llm_response, anonymized_text, mapping_str except Exception as e: logger.error(f"❌ خطا: {str(e)}", exc_info=True) return "", f"❌ خطا: {str(e)}", "", "" def clear_all(): """پاک کردن همه""" return "", "", "", "", "", "" def update_model_choices(provider: str): """آپدیت لیست مدل‌ها بر اساس provider انتخابی""" models = AVAILABLE_MODELS.get(provider, []) return gr.Dropdown(choices=models, value=models[0] if models else None) # Gradio Interface css_rtl = """ .input-box { direction: rtl; text-align: right; } .textbox textarea { direction: rtl; text-align: right; font-family: 'Tahoma', serif; } """ with gr.Blocks(title="سیستم ناشناس‌سازی متون", theme=gr.themes.Soft(), css=css_rtl) as app: gr.Markdown("# 🔐 سیستم ناشناس‌سازی متون مالی فارسی", elem_classes="input-box") # ============================================ # صفحه اول: دکمه‌ها (راست) + ورودی (چپ) # ============================================ with gr.Row(): # سمت راست: دکمه‌ها و دستورات with gr.Column(scale=1): # ✅ انتخاب LLM Provider with gr.Group(): gr.Markdown("### ⚙️ تنظیمات مدل", elem_classes="input-box") llm_provider = gr.Dropdown( choices=["chatgpt", "grok"], value="chatgpt", label="🤖 انتخاب LLM", interactive=True ) llm_model = gr.Dropdown( choices=AVAILABLE_MODELS["chatgpt"], value="gpt-4o-mini", label="📦 انتخاب مدل", interactive=True ) gr.Markdown("---") analysis_prompt = gr.Textbox( lines=6, placeholder="مثال: این متن را خلاصه کن\nیا: نکات کلیدی را استخراج کن", label="📋 دستورات LLM (اختیاری)", elem_classes="textbox" ) gr.Markdown("---") with gr.Column(): process_btn = gr.Button( "▶️ پردازش", variant="primary", size="lg" ) clear_btn = gr.Button( "🗑️ پاک کردن", variant="stop", size="lg" ) # سمت چپ: متن ورودی (بزرگ‌تر) with gr.Column(scale=3): input_text = gr.Textbox( lines=18, placeholder="متن مالی/خبری را وارد کنید...", label="📝 متن ورودی", elem_classes="textbox" ) # ============================================ # صفحه دوم: 3 باکس نتایج (وسط) # ============================================ gr.Markdown("---") gr.Markdown("## 📊 نتایج پردازش", elem_classes="input-box") with gr.Row(): # باکس 1: متن بازگردانی شده (راست) with gr.Column(scale=1): restored_text = gr.Textbox( lines=12, label="✅ متن بازگردانی شده", interactive=False, elem_classes="textbox" ) # باکس 2: تحلیل LLM (وسط) with gr.Column(scale=1): llm_analysis = gr.Textbox( lines=12, label="🤖 تحلیل LLM", interactive=False, elem_classes="textbox" ) # باکس 3: متن ناشناس‌شده (چپ) with gr.Column(scale=1): anonymized_text = gr.Textbox( lines=12, label="🔒 متن ناشناس‌شده", interactive=False, elem_classes="textbox" ) # ============================================ # پایین: جدول نگاشت (Markdown) # ============================================ gr.Markdown("---") mapping_table = gr.Markdown( value="### 📋 جدول نگاشت\n\nهنوز پردازشی انجام نشده", label="📋 جدول نگاشت", elem_classes="input-box" ) # ============================================ # Event Handlers # ============================================ # ✅ آپدیت مدل‌ها هنگام تغییر provider llm_provider.change( fn=update_model_choices, inputs=[llm_provider], outputs=[llm_model] ) # پردازش process_btn.click( fn=process, inputs=[input_text, analysis_prompt, llm_provider, llm_model], outputs=[restored_text, llm_analysis, anonymized_text, mapping_table] ) # پاک کردن clear_btn.click( fn=clear_all, outputs=[input_text, analysis_prompt, restored_text, llm_analysis, anonymized_text, mapping_table] ) if __name__ == "__main__": print("=" * 70) print("🚀 سیستم ناشناس‌سازی متون در حال راه‌اندازی...") print("=" * 70) print("\n📋 نحوه استفاده:\n") print("1. کلیدهای API را تنظیم کنید:") print(" - CEREBRAS_API_KEY (ضروری)") print(" - OPENAI_API_KEY (برای ChatGPT)") print(" - XAI_API_KEY (برای Grok)") print("2. http://localhost:7860 را باز کنید") print("3. LLM و مدل را انتخاب کنید") print("4. متن را وارد کنید") print("5. 'پردازش' را کلیک کنید\n") print("LLM‌های پشتیبانی‌شده:") print(" 🤖 ChatGPT: gpt-4o-mini, gpt-4o, gpt-4-turbo") print(" 🤖 Grok: grok-beta (رایگان), grok-3-mini, grok-3") print("=" * 70 + "\n") app.launch( server_name="0.0.0.0", server_port=7860, share=False, show_error=True )