import gradio as gr import re import os import requests import json import logging from typing import Dict, List, Tuple, Optional from llm_sender_unified import create_llm_sender # ✅ مدل‌های موجود - به‌روزرسانی نوامبر 2024 AVAILABLE_MODELS = { "chatgpt": [ # GPT-5 Series (جدیدترین) "gpt-5.1", # بهترین برای کدنویسی و وظایف agentic "gpt-5", # مدل reasoning قبلی # GPT-4 Series "gpt-4.1", # هوشمندترین non-reasoning "gpt-4o", # قدرتمند "gpt-4o-mini", # سریع و ارزان "gpt-4-turbo", # سریع‌تر از GPT-4 ], "grok": [ # Grok-4 Series (جدیدترین) "grok-4-fast-reasoning", # سریع با reasoning "grok-4-fast-non-reasoning", # سریع بدون reasoning "grok-4-0709", # نسخه پایدار # Grok-3 Series "grok-3", # قدرتمند "grok-3-mini", # سبک # Grok-2 Series "grok-2-vision-1212", # با قابلیت بینایی "grok-2-1212", # نسخه پایدار "grok-2" # نسخه قدیمی ] } logging.basicConfig(level=logging.INFO) logger = logging.getLogger(__name__) class AnonymizerAdvanced: """ناشناس‌ساز پیشرفته با روش‌های متعدد""" def __init__( self, cerebras_key: str = None, llm_provider: str = "chatgpt", llm_model: str = None, entities_to_anonymize: List[str] = None ): self.cerebras_key = cerebras_key or os.getenv("CEREBRAS_API_KEY") self.llm_provider = llm_provider self.llm_model = llm_model self.entities_to_anonymize = entities_to_anonymize or ["person", "company", "amount", "percent"] self.mapping_table = {} self.reverse_mapping = {} # ایجاد LLM sender self._create_llm_sender() logger.info(f"✅ Anonymizer Advanced مقداردهی شد با {llm_provider}") def _create_llm_sender(self): """ایجاد LLM sender مناسب""" try: # ✅ همیشه از Hugging Face Secrets استفاده کن if self.llm_provider == "chatgpt": api_key = os.getenv("OPENAI_API_KEY") logger.info("🔑 استفاده از OPENAI_API_KEY از Secrets") elif self.llm_provider == "grok": api_key = os.getenv("XAI_API_KEY") logger.info("🔑 استفاده از XAI_API_KEY از Secrets") else: api_key = None logger.warning("⚠️ Provider ناشناخته") # ایجاد sender self.llm_sender = create_llm_sender( provider=self.llm_provider, api_key=api_key, model=self.llm_model ) logger.info(f"✅ LLM Sender ایجاد شد: {self.llm_provider} - {self.llm_sender.model}") except Exception as e: logger.error(f"❌ خطا در ایجاد LLM Sender: {e}") # fallback to ChatGPT self.llm_sender = create_llm_sender("chatgpt") def set_llm_provider(self, provider: str, model: str = None, entities: List[str] = None): """تغییر provider و مدل LLM و موجودیت‌های ناشناس‌سازی""" self.llm_provider = provider self.llm_model = model if entities is not None: self.entities_to_anonymize = entities self._create_llm_sender() logger.info(f"✅ LLM تغییر یافت به: {provider} - {model}") logger.info(f"✅ موجودیت‌های ناشناس‌سازی: {self.entities_to_anonymize}") def anonymize_with_cerebras(self, text: str) -> Tuple[str, Dict]: """ناشناس‌سازی با Cerebras - بر اساس موجودیت‌های انتخابی""" logger.info("🧠 روش Cerebras...") if not self.cerebras_key: logger.error("❌ Cerebras API Key موجود نیست") raise ValueError("Cerebras API Key مورد نیاز است") # ✅ ساخت دستورات بر اساس موجودیت‌های انتخابی instructions = [] instruction_number = 1 if "person" in self.entities_to_anonymize: instructions.append(f"{instruction_number}. اسامی اشخاص → person-01, person-02, ...") instruction_number += 1 if "company" in self.entities_to_anonymize: instructions.append(f"{instruction_number}. نام شرکت‌ها/سازمان‌ها → company-01, company-02, ...") instruction_number += 1 if "amount" in self.entities_to_anonymize: instructions.append(f"{instruction_number}. اعداد و ارقام و مبالغ (مثل: 50 میلیارد، 100 هزار، 25.5 میلیون، ۳۰۰ دستگاه) → amount-01, amount-02, ...") instruction_number += 1 if "percent" in self.entities_to_anonymize: instructions.append(f"{instruction_number}. درصدها → percent-01, percent-02, ...") instruction_number += 1 # اگه هیچی انتخاب نشده، متن رو همون‌طور برگردون if not instructions: logger.warning("⚠️ هیچ موجودیتی برای ناشناس‌سازی انتخاب نشده!") return text, {} instructions_text = "\n".join(instructions) instructions_text += f"\n{instruction_number}. فقط این توکن‌ها استفاده کنید" instructions_text += f"\n{instruction_number + 1}. شماره‌های نسخه را درست حفظ کنید" instructions_text += f"\n{instruction_number + 2}. اگر موجودیت تکرار شود از شماره قدیمی استفاده کنید" try: # مرحله 1: ناشناس‌سازی متن # ✅ ساخت مثال برای amount (اگر انتخاب شده) example_text = "" if "amount" in self.entities_to_anonymize: example_text = """ مثال: متن اصلی: "فروش 50 میلیارد ریال در سال گذشته بود." متن ناشناس: "فروش amount-01 در سال گذشته بود." """ prompt1 = f"""متن زیر را ناشناس کنید. قوانین: {instructions_text} {example_text} متن: {text} خروجی: فقط متن ناشناس شده (بدون توضیح اضافی)""" response1 = requests.post( "https://api.cerebras.ai/v1/chat/completions", headers={ "Authorization": f"Bearer {self.cerebras_key}", "Content-Type": "application/json" }, json={ "model": "llama-3.3-70b", "messages": [{"role": "user", "content": prompt1}], "max_tokens": 4096, "temperature": 0.1 }, timeout=60 ) if response1.status_code != 200: logger.error(f"❌ Cerebras Error: {response1.status_code}") raise Exception(f"Cerebras API Error: {response1.status_code}") anonymized_text = response1.json()['choices'][0]['message']['content'].strip() logger.info("✅ Cerebras: ناشناس‌سازی موفق") # مرحله 2: استخراج mapping - فقط برای موجودیت‌های انتخابی mapping_instructions = [] json_example = "{\n" if "person" in self.entities_to_anonymize: mapping_instructions.append('- برای person-XX: نام کامل شخص (مثلاً "علی احمدی")') json_example += ' "person-01": "متن اصلی کامل",\n' if "company" in self.entities_to_anonymize: mapping_instructions.append('- برای company-XX: نام کامل شرکت/سازمان (مثلاً "شرکت پتروشیمی")') json_example += ' "company-01": "متن اصلی کامل",\n' if "amount" in self.entities_to_anonymize: mapping_instructions.append('- برای amount-XX: عدد + واحد (مثلاً "80 هزار تومان" یا "50 میلیارد ریال")') json_example += ' "amount-01": "متن اصلی کامل با واحد",\n' if "percent" in self.entities_to_anonymize: mapping_instructions.append('- برای percent-XX: عدد + کلمه "درصد" (مثلاً "40 درصد" نه فقط "40")') json_example += ' "percent-01": "عدد + درصد",\n' json_example += " ...\n}" mapping_instructions_text = "\n".join(mapping_instructions) prompt2 = f"""متن اصلی: {text} متن ناشناس شده: {anonymized_text} لطفاً یک جدول mapping برای همه توکن‌های ناشناس ایجاد کن. برای هر توکن، متن اصلی کامل آن را مشخص کن. **مهم:** {mapping_instructions_text} خروجی را به این فرمت JSON بده (فقط JSON، بدون توضیح اضافی): {json_example}""" response2 = requests.post( "https://api.cerebras.ai/v1/chat/completions", headers={ "Authorization": f"Bearer {self.cerebras_key}", "Content-Type": "application/json" }, json={ "model": "llama-3.3-70b", "messages": [{"role": "user", "content": prompt2}], "max_tokens": 2048, "temperature": 0.1 }, timeout=60 ) if response2.status_code == 200: mapping_text = response2.json()['choices'][0]['message']['content'].strip() mapping_text = mapping_text.replace('```json', '').replace('```', '').strip() try: self.mapping_table = json.loads(mapping_text) self._fix_percent_mapping() self.reverse_mapping = {v: k for k, v in self.mapping_table.items()} logger.info(f"✅ Mapping استخراج شد: {len(self.mapping_table)} موجودیت") except json.JSONDecodeError: logger.warning("⚠️ خطا در parse کردن JSON mapping - استفاده از روش fallback") self._extract_mapping_from_text(text, anonymized_text) else: logger.warning("⚠️ خطا در دریافت mapping - استفاده از روش fallback") self._extract_mapping_from_text(text, anonymized_text) return anonymized_text, self.mapping_table except Exception as e: logger.error(f"❌ Cerebras Exception: {e}") raise def _fix_percent_mapping(self): """اصلاح mapping برای درصدها""" for token, value in self.mapping_table.items(): value_str = str(value).strip() if token.startswith('percent-'): if not re.search(r'(درصد|%|درصدی)', value_str): self.mapping_table[token] = f"{value_str} درصد" logger.info(f"✅ اصلاح {token}: '{value_str}' → '{value_str} درصد'") elif token.startswith('amount-'): if not re.search(r'(میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)', value_str): logger.warning(f"⚠️ {token}: فقط عدد '{value_str}' - واحد مشخص نیست") def _extract_mapping_from_text(self, original: str, anonymized: str): """استخراج mapping از متن‌های اصلی و ناشناس شده - فقط برای موجودیت‌های انتخابی""" # ✅ استخراج فقط توکن‌های انتخابی all_tokens = [] for entity_type in self.entities_to_anonymize: tokens = re.findall(f'{entity_type}-\\d+', anonymized) all_tokens.extend([(t, entity_type) for t in tokens]) all_tokens = sorted(set(all_tokens), key=lambda x: (x[1], int(x[0].split('-')[1]))) # ✅ الگوهای موجودیت - فقط برای انتخابی‌ها patterns = {} if "person" in self.entities_to_anonymize: patterns['person'] = r'\b[ء-ي]+\s+[ء-ي]+(?:\s+[ء-ي]+)*\b' if "company" in self.entities_to_anonymize: patterns['company'] = r'(?:شرکت|بانک|سازمان|گروه|هلدینگ)\s+[ء-ي]+(?:\s+[ء-ي]+)*' if "amount" in self.entities_to_anonymize: patterns['amount'] = r'\d+(?:\.\d+)?\s*(?:میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)' if "percent" in self.entities_to_anonymize: patterns['percent'] = r'\d+(?:\.\d+)?\s*(?:درصد|%|درصدی)' original_entities = {} for entity_type, pattern in patterns.items(): matches = list(re.finditer(pattern, original)) original_entities[entity_type] = [m.group().strip() for m in matches] for token, entity_type in all_tokens: if entity_type in original_entities and original_entities[entity_type]: token_num = int(token.split('-')[1]) - 1 if token_num < len(original_entities[entity_type]): original_text = original_entities[entity_type][token_num] self.mapping_table[token] = original_text self.reverse_mapping[original_text] = token else: original_text = original_entities[entity_type][-1] if token not in self.mapping_table: self.mapping_table[token] = original_text self.reverse_mapping[original_text] = token def analyze_with_llm(self, anonymized_text: str, analysis_prompt: str = None) -> str: """استفاده از LLM یکپارچه""" logger.info(f"🤖 {self.llm_provider.upper()} اجرای پرامپت...") if not analysis_prompt or not analysis_prompt.strip(): logger.info("⚠️ پرامپت خالی - بدون تحلیل") return "⚠️ هیچ دستور تحلیل داده نشده است" # ✅ بررسی اینکه آیا مدل GPT-4 است is_gpt4 = self.llm_model and any(x in self.llm_model.lower() for x in ['gpt-4', 'gpt4']) if is_gpt4: # ✅ پرامپت ویژه GPT-4 با مثال‌های واقعی logger.info("🎯 استفاده از پرامپت ویژه GPT-4") return self._analyze_with_gpt4_prompt(anonymized_text, analysis_prompt) else: # پرامپت عادی برای GPT-5 و Grok return self._analyze_with_standard_prompt(anonymized_text, analysis_prompt) def _analyze_with_gpt4_prompt(self, anonymized_text: str, analysis_prompt: str) -> str: """پرامپت ویژه GPT-4 با few-shot examples""" # ✅ مثال‌های واقعی Few-Shot few_shot_examples = """ EXAMPLE 1 - CORRECT: Input: "company-01 فروش amount-01 داشت" Your output should be EXACTLY: "company-01 فروش amount-01 داشت" NOT: "company-01 فروش مبلغ amount-01 داشت" EXAMPLE 2 - CORRECT: Input: "amount-02 به amount-03 رسید" Your output should be EXACTLY: "amount-02 به amount-03 رسید" NOT: "مبلغ amount-02 به amount-03 رسید" EXAMPLE 3 - CORRECT: Input: "company-01 سود percent-01 داشت" Your output should be EXACTLY: "company-01 سود percent-01 داشت" NOT: "شرکت company-01 سود درصد percent-01 داشت" """ # لیست توکن‌های انتخابی tokens_list = [] if "person" in self.entities_to_anonymize: tokens_list.append("person-XX") if "company" in self.entities_to_anonymize: tokens_list.append("company-XX") if "amount" in self.entities_to_anonymize: tokens_list.append("amount-XX") if "percent" in self.entities_to_anonymize: tokens_list.append("percent-XX") tokens_str = ", ".join(tokens_list) # ✅ پرامپت انگلیسی برای GPT-4 (بهتر کار می‌کند) combined_text = f"""You are processing anonymized Persian/Farsi text containing placeholder tokens. ANONYMIZED TEXT: {anonymized_text} USER REQUEST: {analysis_prompt} CRITICAL RULES: 1. Use ONLY these exact tokens: {tokens_str} 2. NEVER add words before/after tokens 3. Keep the EXACT format: amount-01 (not "مبلغ amount-01" or "amount- 01") 4. Do NOT create new tokens 5. Preserve the exact structure {few_shot_examples} FORBIDDEN PATTERNS - NEVER USE: ❌ "مبلغ amount-01" → ✅ Use: "amount-01" ❌ "شرکت company-01" → ✅ Use: "company-01" ❌ "فروش به amount-02" → ✅ Use: "فروش amount-02" ❌ "درصد percent-01" → ✅ Use: "percent-01" ❌ "amount- 01" (space) → ✅ Use: "amount-01" Now process the text following these rules EXACTLY.""" try: # ✅ temperature خیلی پایین برای GPT-4 logger.info(f"🌡️ Temperature: 0.05 (GPT-4 ویژه)") response = self.llm_sender.send( combined_text, lang='en', # انگلیسی برای GPT-4 temperature=0.05, # خیلی خیلی پایین max_tokens=2000 ) # ✅ دیباگ: نمایش خروجی خام LLM logger.info("=" * 60) logger.info("🔍 DEBUG - خروجی خام GPT-4:") logger.info(response[:500] + "..." if len(response) > 500 else response) logger.info("=" * 60) # ✅ پاکسازی قوی‌تر cleaned_response = self._clean_llm_response(response) # ✅ دیباگ: نمایش خروجی بعد از clean logger.info("=" * 60) logger.info("🧹 DEBUG - خروجی بعد از clean:") logger.info(cleaned_response[:500] + "..." if len(cleaned_response) > 500 else cleaned_response) logger.info("=" * 60) logger.info(f"✅ GPT-4: {len(cleaned_response)} کاراکتر") return cleaned_response except Exception as e: logger.error(f"❌ GPT-4 Exception: {e}") return f"❌ خطا در ارتباط با GPT-4: {str(e)}" def _analyze_with_standard_prompt(self, anonymized_text: str, analysis_prompt: str) -> str: """پرامپت استاندارد برای GPT-5 و Grok""" tokens_instruction = [] examples = [] if "person" in self.entities_to_anonymize: tokens_instruction.append("person-XX") examples.append("✅ صحیح: person-01 در جلسه حضور داشت\n❌ غلط: آقای person-01") if "company" in self.entities_to_anonymize: tokens_instruction.append("company-XX") examples.append("✅ صحیح: company-01 فعالیت کرد\n❌ غلط: شرکت company-01") if "amount" in self.entities_to_anonymize: tokens_instruction.append("amount-XX") examples.append("✅ صحیح: فروش amount-01 بود\n❌ غلط: فروش مبلغ amount-01") if "percent" in self.entities_to_anonymize: tokens_instruction.append("percent-XX") examples.append("✅ صحیح: رشد percent-01 داشت\n❌ غلط: رشد درصد percent-01") tokens_str = ", ".join(tokens_instruction) examples_str = "\n".join(examples) combined_text = f"""متن ناشناس‌سازی شده: {anonymized_text} دستورات: {analysis_prompt} ⚠️ قوانین مهم: 1. فقط از کدهای ناشناس موجود استفاده کن: {tokens_str} 2. هیچ کلمه‌ای قبل یا بعد از این کدها اضافه نکن 3. کد جدید ایجاد نکن 4. ساختار دقیق متن را حفظ کن مثال‌های صحیح و غلط: {examples_str}""" try: temp_to_use = 0.2 logger.info(f"🌡️ Temperature: {temp_to_use}") response = self.llm_sender.send( combined_text, lang='fa', temperature=temp_to_use, max_tokens=2000 ) response = self._clean_llm_response(response) logger.info(f"✅ {self.llm_provider.upper()}: {len(response)} کاراکتر") return response except Exception as e: logger.error(f"❌ {self.llm_provider.upper()} Exception: {e}") return f"❌ خطا در ارتباط با {self.llm_provider.upper()}: {str(e)}" def _clean_llm_response(self, text: str) -> str: """پاکسازی کلمات اضافی که LLM ممکن است قبل از موجودیت‌ها اضافه کرده باشد""" logger.info("🧹 پاکسازی کلمات اضافی...") cleaned = text changes_made = 0 # الگوهای کلمات اضافی برای هر نوع موجودیت patterns = [] if "person" in self.entities_to_anonymize: patterns.extend([ (r'(?:آقای|خانم|شخص|فرد)\s+(person-\d+)', r'\1'), (r'(person-\d+)\s+(?:نامدار|محترم|عزیز)', r'\1'), ]) if "company" in self.entities_to_anonymize: patterns.extend([ (r'(?:شرکت|سازمان|گروه|هلدینگ|بانک|موسسه)\s+(company-\d+)', r'\1'), (r'(company-\d+)\s+(?:محترم)', r'\1'), ]) if "amount" in self.entities_to_anonymize: patterns.extend([ # ✅ الگوهای کامل برای amount - تمام حالات ممکن # حالت 1: کلمات قبل از amount (r'(?:مبلغ|رقم|عدد|قیمت|ارزش|مقدار)\s+(amount-\d+)', r'\1'), (r'(?:فروش|درآمد|سود|زیان|هزینه|خرج)\s+(amount-\d+)', r'\1'), (r'(?:دارایی|بدهی|سرمایه|پول|وام)\s+(amount-\d+)', r'\1'), # حالت 2: حروف اضافه قبل از amount (r'\bبه\s+(amount-\d+)', r'\1'), (r'\bبا\s+(amount-\d+)', r'\1'), (r'\bاز\s+(amount-\d+)', r'\1'), (r'\bتا\s+(amount-\d+)', r'\1'), (r'\bدر\s+(amount-\d+)', r'\1'), (r'\bبرای\s+(amount-\d+)', r'\1'), # حالت 3: واحدها بعد از amount (اگر نباید باشند) (r'(amount-\d+)\s+(?:ریال|تومان|دلار|یورو)', r'\1'), (r'(amount-\d+)\s+(?:میلیون|میلیارد|هزار|تریلیون)', r'\1'), # حالت 4: ترکیبات (r'(?:به\s+مبلغ)\s+(amount-\d+)', r'\1'), (r'(?:با\s+ارزش)\s+(amount-\d+)', r'\1'), (r'(?:در\s+حد)\s+(amount-\d+)', r'\1'), # حالت 5: فعل + amount (بدون حرف اضافه) (r'(?:رسید|رسیده|می\u200cرسد)\s+(amount-\d+)', r'\1'), (r'(?:شد|شده|می\u200cشود)\s+(amount-\d+)', r'\1'), (r'(?:بود|بوده|است)\s+(amount-\d+)', r'\1'), ]) if "percent" in self.entities_to_anonymize: patterns.extend([ (r'(?:درصد|%)\s+(percent-\d+)', r'\1'), (r'(percent-\d+)\s+(?:درصد|درصدی|%)', r'\1'), ]) # اعمال الگوها for pattern, replacement in patterns: new_text = re.sub(pattern, replacement, cleaned) if new_text != cleaned: count = len(re.findall(pattern, cleaned)) changes_made += count cleaned = new_text logger.info(f" ✅ حذف '{pattern}': {count} مورد") if changes_made > 0: logger.info(f"✅ {changes_made} کلمه اضافی حذف شد") else: logger.info("✅ کلمه اضافی یافت نشد") return cleaned def restore_text(self, anonymized_text: str) -> str: """بازگردانی متن با ترتیب بهینه برای amount""" logger.info("🔄 بازگردانی متن...") if not self.mapping_table: logger.warning("⚠️ جدول نگاشت خالی است") return anonymized_text logger.info(f"📋 تعداد موجودیت‌ها در mapping: {len(self.mapping_table)}") # ✅ STEP 1: normalize (hyphen یونیکد و جداسازی کلمات چسبیده) restored = self._normalize_tokens(anonymized_text) # ✅ STEP 2: restore قوی مخصوص amount با regex (قبل از clean!) # این کلیدی است - باید قبل از clean انجام شود logger.info("🔥 بازگردانی amount با regex...") amount_restored_count = 0 for placeholder, original in self.mapping_table.items(): if placeholder.startswith("amount-"): # استخراج شماره num = placeholder.split("-")[1] # الگوی regex: amount [فاصله اختیاری] - [فاصله اختیاری] شماره pattern = rf'amount\s*-\s*{num}' matches = re.findall(pattern, restored) if matches: restored = re.sub(pattern, original, restored) amount_restored_count += 1 logger.info(f"✅ regex: {placeholder} → {original[:30]}...") if amount_restored_count > 0: logger.info(f"✅ {amount_restored_count} amount با regex بازگردانی شد") # ✅ STEP 3: clean (حذف کلمات اضافی) # حالا که amount ها restore شدن، می‌تونیم clean کنیم restored = self._clean_for_restore(restored) # ✅ STEP 4: replace ساده برای بقیه (person, company, percent) replacements_count = 0 for placeholder, original in sorted(self.mapping_table.items(), key=lambda x: len(x[0]), reverse=True): # amount ها رو قبلاً restore کردیم if placeholder.startswith("amount-"): continue if placeholder in restored: restored = restored.replace(placeholder, original) replacements_count += 1 logger.info(f"✅ {placeholder} → {original[:30]}...") else: logger.warning(f"⚠️ {placeholder} در متن یافت نشد!") total_restored = amount_restored_count + replacements_count logger.info(f"✅ بازگردانی کامل - {total_restored}/{len(self.mapping_table)} جایگزین شد") # ✅ STEP 5: fallback regex برای توکن‌های باقی‌مانده if total_restored < len(self.mapping_table): logger.info("🔍 تلاش برای یافتن توکن‌های گم‌شده با regex...") restored = self._restore_with_regex(restored) # هشدار در صورت شکست کامل if total_restored == 0 and len(self.mapping_table) > 0: logger.error("❌ هیچ توکنی جایگزین نشد! متن ورودی احتمالاً متفاوت است.") return restored def _clean_for_restore(self, text: str) -> str: """پاکسازی خاص برای بازگردانی (شبیه _clean_llm_response اما سبک‌تر)""" logger.info("🧹 پاکسازی قبل از بازگردانی...") cleaned = text changes_made = 0 patterns = [] if "amount" in self.entities_to_anonymize: patterns.extend([ (r'(?:مبلغ|رقم|عدد|قیمت|ارزش|فروش|درآمد|هزینه|سود|زیان)\s+(amount-\d+)', r'\1'), (r'\bبه\s+(amount-\d+)', r'\1'), (r'\bبا\s+(amount-\d+)', r'\1'), (r'\bاز\s+(amount-\d+)', r'\1'), (r'\bتا\s+(amount-\d+)', r'\1'), ]) for pattern, replacement in patterns: new_text = re.sub(pattern, replacement, cleaned) if new_text != cleaned: changes_made += re.subn(pattern, replacement, cleaned)[1] cleaned = new_text if changes_made > 0: logger.info(f"✅ {changes_made} کلمه اضافی حذف شد") return cleaned def _restore_with_regex(self, text: str) -> str: """بازگردانی با استفاده از regex برای پیدا کردن توکن‌های دارای کلمات اضافی""" restored = text for placeholder, original in self.mapping_table.items(): # اگر قبلاً جایگزین شده، رد شو if placeholder not in text: # الگوی regex: کلمه اضافی (اختیاری) + توکن # مثلاً: "فروش amount-01" یا "مبلغ amount-05" entity_type = placeholder.split('-')[0] entity_num = placeholder.split('-')[1] # الگوهای مختلف patterns = [ # کلمه فارسی + فاصله + توکن rf'[ء-ي]+\s+({entity_type}-{entity_num})\b', # توکن + فاصله + کلمه فارسی rf'\b({entity_type}-{entity_num})\s+[ء-ي]+', # فاصله اضافی داخل توکن rf'\b{entity_type}\s+-\s+{entity_num}\b', ] for pattern in patterns: matches = list(re.finditer(pattern, restored)) if matches: logger.info(f"✅ پیدا شد با regex: {pattern}") for match in matches: # جایگزینی کل عبارت با فقط original full_match = match.group(0) # اگر توکن داخل match هست، فقط اون رو جایگزین کن if placeholder in full_match: restored = restored.replace(full_match, full_match.replace(placeholder, original)) else: # اگر فرمت توکن متفاوت بود restored = restored.replace(full_match, original) logger.info(f"✅ regex: {placeholder} → {original[:30]}...") break return restored def _normalize_tokens(self, text: str) -> str: """نرمال‌سازی توکن‌ها - حذف فاصله‌های اضافی و hyphen یونیکد""" logger.info("🧹 نرمال‌سازی توکن‌ها...") normalized = text changes = 0 # ✅ 1. نرمال‌سازی hyphen های یونیکد برای همه موجودیت‌ها # این hyphen ها: ‐ ‑ ‒ – — − و hyphen معمولی - unicode_hyphens = r'[\u2010\u2011\u2012\u2013\u2014\u2212\-]' for entity_type in self.entities_to_anonymize: # تبدیل همه hyphen ها به - معمولی pattern = rf'{entity_type}{unicode_hyphens}(\d+)' replacement = rf'{entity_type}-\1' count = len(re.findall(pattern, normalized)) if count > 0: normalized = re.sub(pattern, replacement, normalized) changes += count logger.info(f" ✅ {entity_type}: {count} hyphen یونیکد نرمال شد") # ✅ 2. حذف فاضله‌های اضافی داخل توکن for entity_type in self.entities_to_anonymize: pattern = rf'{entity_type}\s+-\s+(\d+)' replacement = rf'{entity_type}-\1' count = len(re.findall(pattern, normalized)) if count > 0: normalized = re.sub(pattern, replacement, normalized) changes += count logger.info(f" ✅ {entity_type}: {count} فاصله اضافی حذف شد") # ✅ 3. جدا کردن توکن‌ها از کلمات فارسی چسبیده (ویژه amount) # مثال: amount-01در → amount-01 در if "amount" in self.entities_to_anonymize: pattern = r'(amount-\d+)([ء-ي])' replacement = r'\1 \2' before = normalized normalized = re.sub(pattern, replacement, normalized) if normalized != before: count = len(re.findall(pattern, before)) changes += count logger.info(f" ✅ amount: {count} کلمه چسبیده جدا شد") # ✅ 4. جدا کردن توکن‌ها از نشانه‌گذاری (ویژه amount) # مثال: amount-01، → amount-01 ، if "amount" in self.entities_to_anonymize: pattern = r'(amount-\d+)([،؛:.!?])' replacement = r'\1 \2' before = normalized normalized = re.sub(pattern, replacement, normalized) if normalized != before: count = len(re.findall(pattern, before)) changes += count logger.info(f" ✅ amount: {count} نشانه‌گذاری جدا شد") if changes > 0: logger.info(f"✅ مجموع {changes} تغییر نرمال‌سازی") return normalized def get_mapping_table_md(self) -> str: """تبدیل جدول نگاشت به Markdown""" if not self.mapping_table: return "### 📋 جدول نگاشت\n\nهیچ موجودیتی شناسایی نشد" table = "### 📋 جدول نگاشت\n\n" table += "| شناسه | متن اصلی |\n" table += "|-------|----------|\n" for token, original in sorted(self.mapping_table.items()): table += f"| **{token}** | {original} |\n" return table # متغیر سراسری anonymizer = None def process( input_text: str, analysis_prompt: str, llm_provider: str, llm_model: str, anonymize_all: bool, anonymize_person: bool, anonymize_company: bool, anonymize_amount: bool, anonymize_percent: bool ): """پردازش متن - 4 مرحله""" global anonymizer if not input_text.strip(): return "", "", "", "" # ✅ ساخت لیست موجودیت‌های انتخابی if anonymize_all: entities = ["person", "company", "amount", "percent"] else: entities = [] if anonymize_person: entities.append("person") if anonymize_company: entities.append("company") if anonymize_amount: entities.append("amount") if anonymize_percent: entities.append("percent") # اگه هیچی انتخاب نشده if not entities: return "", "❌ لطفاً حداقل یک موجودیت برای ناشناس‌سازی انتخاب کنید", "", "" cerebras_key = os.getenv("CEREBRAS_API_KEY") # ایجاد یا آپدیت anonymizer if not anonymizer: anonymizer = AnonymizerAdvanced( cerebras_key, llm_provider=llm_provider, llm_model=llm_model, entities_to_anonymize=entities ) else: anonymizer.set_llm_provider(llm_provider, llm_model, entities) anonymizer.mapping_table = {} anonymizer.reverse_mapping = {} try: logger.info("=" * 70) logger.info(f"🚀 شروع پردازش - LLM: {llm_provider} ({llm_model})") logger.info(f"🎯 موجودیت‌های انتخابی: {', '.join(entities)}") logger.info("=" * 70) # مرحله 1: ناشناس‌سازی logger.info("🔐 مرحله 1: ناشناس‌سازی...") anonymized_text, _ = anonymizer.anonymize_with_cerebras(input_text) logger.info(f"✅ ناشناس‌سازی: {len(anonymized_text)} کاراکتر") # ✅ دیباگ: بررسی توکن‌های موجود در متن ناشناس logger.info("=" * 70) logger.info("🔍 DEBUG - توکن‌های موجود در متن ناشناس:") for entity_type in entities: tokens_found = re.findall(f'{entity_type}-\\d+', anonymized_text) unique_tokens = sorted(set(tokens_found)) logger.info(f" {entity_type}: {unique_tokens}") logger.info("=" * 70) # مرحله 2: LLM (فقط اگر analysis_prompt داده شده باشد) has_analysis = analysis_prompt and analysis_prompt.strip() if has_analysis: logger.info(f"🤖 مرحله 2: {llm_provider.upper()}...") llm_response = anonymizer.analyze_with_llm(anonymized_text, analysis_prompt) logger.info(f"✅ {llm_provider.upper()}: {len(llm_response)} کاراکتر") else: logger.info("⚠️ مرحله 2: بدون تحلیل LLM (پرامپت خالی)") llm_response = "⚠️ هیچ دستور تحلیل داده نشده است" # مرحله 3: بازگردانی logger.info("🔄 مرحله 3: بازگردانی...") # ✅ اصلاح: اگر تحلیل انجام نشده، متن ناشناس اصلی رو restore کن if has_analysis: # اگر LLM تحلیل کرده، خروجی LLM رو restore کن restored_text = anonymizer.restore_text(llm_response) else: # اگر تحلیل نشده، متن ناشناس اصلی رو restore کن restored_text = anonymizer.restore_text(anonymized_text) logger.info("✅ بازگردانی کامل") # مرحله 4: جدول نگاشت logger.info("📋 مرحله 4: جدول نگاشت...") mapping_str = anonymizer.get_mapping_table_md() logger.info(f"✅ {len(anonymizer.mapping_table)} موجودیت") logger.info("=" * 70) logger.info("✅ تمام مراحل کامل!") logger.info("=" * 70) return restored_text, llm_response, anonymized_text, mapping_str except Exception as e: logger.error(f"❌ خطا: {str(e)}", exc_info=True) return "", f"❌ خطا: {str(e)}", "", "" def clear_all(): """پاک کردن همه""" return "", "", "", "", "", "", True, False, False, False, False # Gradio Interface css_rtl = """ .input-box { direction: rtl; text-align: right; } .textbox textarea { direction: rtl; text-align: right; font-family: 'Tahoma', serif; } .thick-divider { border-top: 2px solid #333; margin: 10px 0; } .compact-group { margin: 0; padding: 0; } .compact-checkbox label { padding: 5px 10px !important; margin: 3px 0 !important; font-size: 0.95em !important; } """ with gr.Blocks(title="سیستم ناشناس‌سازی متون", theme=gr.themes.Soft(), css=css_rtl) as app: gr.Markdown("# 🔐 پلتفرم امن چت با مدل‌های متنوع و ناشناس‌سازی داده‌ها", elem_classes="input-box") # ردیف اول: تنظیمات مدل و انتخاب موجودیت‌ها with gr.Row(): # سمت راست: تنظیمات مدل with gr.Column(scale=1): with gr.Group(): gr.Markdown("### ⚙️ تنظیمات مدل", elem_classes="input-box") llm_provider = gr.Dropdown( choices=["chatgpt", "grok"], value="chatgpt", label="🤖 انتخاب مدل زبانی", interactive=True ) llm_model = gr.Dropdown( choices=AVAILABLE_MODELS["chatgpt"], value="gpt-4o-mini", label="📦 انتخاب نسخه مدل", interactive=True ) # سمت چپ: انتخاب موجودیت‌ها with gr.Column(scale=1): with gr.Group(): gr.Markdown("### 🎯 انتخاب موجودیت‌ها", elem_classes="input-box") anonymize_all = gr.Checkbox( label="✅ همه موجودیت‌ها", value=True, elem_classes="input-box compact-checkbox" ) anonymize_person = gr.Checkbox( label="👤 اسامی اشخاص", value=False, elem_classes="input-box compact-checkbox" ) anonymize_company = gr.Checkbox( label="🏢 نام شرکت‌ها", value=False, elem_classes="input-box compact-checkbox" ) anonymize_amount = gr.Checkbox( label="💰 ارقام مالی", value=False, elem_classes="input-box compact-checkbox" ) anonymize_percent = gr.Checkbox( label="📊 درصدها", value=False, elem_classes="input-box compact-checkbox" ) # خط جداکننده پررنگ gr.Markdown("---", elem_classes="thick-divider") # ردیف دوم: دستورات پردازش و متن ورودی with gr.Row(): # سمت راست: دستورات پردازش with gr.Column(scale=1): gr.Markdown("### 📋 دستورات پردازش", elem_classes="input-box") analysis_prompt = gr.Textbox( lines=22, placeholder="مثال: این متن را خلاصه کن\nیا: نکات کلیدی را استخراج کن", label="📋 دستورات LLM (اختیاری)", elem_classes="textbox" ) # سمت چپ: متن ورودی with gr.Column(scale=1): gr.Markdown("### 📝 متن ورودی", elem_classes="input-box") input_text = gr.Textbox( lines=22, placeholder="متن مالی/خبری را وارد کنید...", label="", elem_classes="textbox" ) # دکمه‌های پردازش و پاک کردن with gr.Row(): process_btn = gr.Button( "▶️ پردازش", variant="primary", size="lg", scale=2 ) clear_btn = gr.Button( "🗑️ پاک کردن", variant="stop", size="lg", scale=1 ) # نتایج gr.Markdown("## 📊 نتایج پردازش", elem_classes="input-box") with gr.Row(): with gr.Column(scale=1): restored_text = gr.Textbox( lines=12, label="✅ متن بازگردانی شده", interactive=False, elem_classes="textbox" ) with gr.Column(scale=1): llm_analysis = gr.Textbox( lines=12, label="🤖 تحلیل LLM", interactive=False, elem_classes="textbox" ) with gr.Column(scale=1): anonymized_text = gr.Textbox( lines=12, label="🔒 متن ناشناس‌شده", interactive=False, elem_classes="textbox" ) mapping_table = gr.Markdown( value="### 📋 جدول نگاشت\n\nهنوز پردازشی انجام نشده", label="📋 جدول نگاشت", elem_classes="input-box" ) # Event Handler برای تغییر provider def handle_provider_change(provider): models = AVAILABLE_MODELS.get(provider, []) default_model = models[0] if models else None return gr.update(choices=models, value=default_model) llm_provider.change( fn=handle_provider_change, inputs=[llm_provider], outputs=[llm_model] ) def handle_select_all(select_all): if select_all: return ( gr.update(value=False, interactive=False), gr.update(value=False, interactive=False), gr.update(value=False, interactive=False), gr.update(value=False, interactive=False) ) else: return ( gr.update(value=False, interactive=True), gr.update(value=False, interactive=True), gr.update(value=False, interactive=True), gr.update(value=False, interactive=True) ) anonymize_all.change( fn=handle_select_all, inputs=[anonymize_all], outputs=[anonymize_person, anonymize_company, anonymize_amount, anonymize_percent] ) # پردازش process_btn.click( fn=process, inputs=[ input_text, analysis_prompt, llm_provider, llm_model, anonymize_all, anonymize_person, anonymize_company, anonymize_amount, anonymize_percent ], outputs=[restored_text, llm_analysis, anonymized_text, mapping_table] ) # پاک کردن clear_btn.click( fn=clear_all, outputs=[ input_text, analysis_prompt, restored_text, llm_analysis, anonymized_text, mapping_table, anonymize_all, anonymize_person, anonymize_company, anonymize_amount, anonymize_percent ] ) if __name__ == "__main__": print("=" * 70) print("🚀 سیستم ناشناس‌سازی متون در حال راه‌اندازی...") print("=" * 70) print("\n📋 نحوه استفاده:\n") print("1. API Keyها را در Hugging Face Secrets تنظیم کنید:") print(" - CEREBRAS_API_KEY (ضروری برای ناشناس‌سازی)") print(" - OPENAI_API_KEY (برای ChatGPT)") print(" - XAI_API_KEY (برای Grok)") print("2. http://localhost:7860 را باز کنید") print("3. مدل زبانی (ChatGPT/Grok) و نسخه مدل را انتخاب کنید") print("4. موجودیت‌های مورد نظر برای ناشناس‌سازی را انتخاب کنید") print("5. متن و دستورات پردازش را وارد کنید") print("6. 'پردازش' را کلیک کنید\n") print("🔐 تمام API Keyها از Hugging Face Secrets خوانده می‌شوند") print("📦 مدل‌های پشتیبانی شده:") print(" • ChatGPT GPT-5: gpt-5.1, gpt-5") print(" • ChatGPT GPT-4: gpt-4.1, gpt-4o, gpt-4o-mini, gpt-4-turbo") print(" • Grok-4: grok-4-fast-reasoning, grok-4-fast-non-reasoning, grok-4-0709") print(" • Grok-3: grok-3, grok-3-mini") print(" • Grok-2: grok-2-vision-1212, grok-2-1212, grok-2") print("=" * 70 + "\n") app.launch( server_name="0.0.0.0", server_port=7860, share=False, show_error=True )