KashefTech's picture
Rename app_fixed_v6_CEREBRAS_FIX.py to app.py
7b73dfe verified
import gradio as gr
import re
import os
import requests
import json
import logging
from typing import Dict, List, Tuple, Optional
from llm_sender_unified import create_llm_sender
# ✅ مدل‌های موجود - به‌روزرسانی نوامبر 2024
AVAILABLE_MODELS = {
"chatgpt": [
# GPT-5 Series (جدیدترین)
"gpt-5.1", # بهترین برای کدنویسی و وظایف agentic
"gpt-5", # مدل reasoning قبلی
# GPT-4 Series
"gpt-4.1", # هوشمندترین non-reasoning
"gpt-4o", # قدرتمند
"gpt-4o-mini", # سریع و ارزان
"gpt-4-turbo", # سریع‌تر از GPT-4
],
"grok": [
# Grok-4 Series (جدیدترین)
"grok-4-fast-reasoning", # سریع با reasoning
"grok-4-fast-non-reasoning", # سریع بدون reasoning
"grok-4-0709", # نسخه پایدار
# Grok-3 Series
"grok-3", # قدرتمند
"grok-3-mini", # سبک
# Grok-2 Series
"grok-2-vision-1212", # با قابلیت بینایی
"grok-2-1212", # نسخه پایدار
"grok-2" # نسخه قدیمی
]
}
logging.basicConfig(level=logging.INFO)
logger = logging.getLogger(__name__)
class AnonymizerAdvanced:
"""ناشناس‌ساز پیشرفته با روش‌های متعدد"""
def __init__(
self,
cerebras_key: str = None,
llm_provider: str = "chatgpt",
llm_model: str = None,
entities_to_anonymize: List[str] = None
):
self.cerebras_key = cerebras_key or os.getenv("CEREBRAS_API_KEY")
self.llm_provider = llm_provider
self.llm_model = llm_model
self.entities_to_anonymize = entities_to_anonymize or ["person", "company", "amount", "percent"]
self.mapping_table = {}
self.reverse_mapping = {}
# ایجاد LLM sender
self._create_llm_sender()
logger.info(f"✅ Anonymizer Advanced مقداردهی شد با {llm_provider}")
def _create_llm_sender(self):
"""ایجاد LLM sender مناسب"""
try:
# ✅ همیشه از Hugging Face Secrets استفاده کن
if self.llm_provider == "chatgpt":
api_key = os.getenv("OPENAI_API_KEY")
logger.info("🔑 استفاده از OPENAI_API_KEY از Secrets")
elif self.llm_provider == "grok":
api_key = os.getenv("XAI_API_KEY")
logger.info("🔑 استفاده از XAI_API_KEY از Secrets")
else:
api_key = None
logger.warning("⚠️ Provider ناشناخته")
# ایجاد sender
self.llm_sender = create_llm_sender(
provider=self.llm_provider,
api_key=api_key,
model=self.llm_model
)
logger.info(f"✅ LLM Sender ایجاد شد: {self.llm_provider} - {self.llm_sender.model}")
except Exception as e:
logger.error(f"❌ خطا در ایجاد LLM Sender: {e}")
# fallback to ChatGPT
self.llm_sender = create_llm_sender("chatgpt")
def set_llm_provider(self, provider: str, model: str = None, entities: List[str] = None):
"""تغییر provider و مدل LLM و موجودیت‌های ناشناس‌سازی"""
self.llm_provider = provider
self.llm_model = model
if entities is not None:
self.entities_to_anonymize = entities
self._create_llm_sender()
logger.info(f"✅ LLM تغییر یافت به: {provider} - {model}")
logger.info(f"✅ موجودیت‌های ناشناس‌سازی: {self.entities_to_anonymize}")
def anonymize_with_cerebras(self, text: str) -> Tuple[str, Dict]:
"""ناشناس‌سازی با Cerebras - بر اساس موجودیت‌های انتخابی"""
logger.info("🧠 روش Cerebras...")
if not self.cerebras_key:
logger.error("❌ Cerebras API Key موجود نیست")
raise ValueError("Cerebras API Key مورد نیاز است")
# ✅ ساخت دستورات بر اساس موجودیت‌های انتخابی
instructions = []
instruction_number = 1
if "person" in self.entities_to_anonymize:
instructions.append(f"{instruction_number}. اسامی اشخاص → person-01, person-02, ...")
instruction_number += 1
if "company" in self.entities_to_anonymize:
instructions.append(f"{instruction_number}. نام شرکت‌ها/سازمان‌ها → company-01, company-02, ...")
instruction_number += 1
if "amount" in self.entities_to_anonymize:
instructions.append(f"{instruction_number}. اعداد و ارقام و مبالغ (مثل: 50 میلیارد، 100 هزار، 25.5 میلیون، ۳۰۰ دستگاه) → amount-01, amount-02, ...")
instruction_number += 1
if "percent" in self.entities_to_anonymize:
instructions.append(f"{instruction_number}. درصدها → percent-01, percent-02, ...")
instruction_number += 1
# اگه هیچی انتخاب نشده، متن رو همون‌طور برگردون
if not instructions:
logger.warning("⚠️ هیچ موجودیتی برای ناشناس‌سازی انتخاب نشده!")
return text, {}
instructions_text = "\n".join(instructions)
instructions_text += f"\n{instruction_number}. فقط این توکن‌ها استفاده کنید"
instructions_text += f"\n{instruction_number + 1}. شماره‌های نسخه را درست حفظ کنید"
instructions_text += f"\n{instruction_number + 2}. اگر موجودیت تکرار شود از شماره قدیمی استفاده کنید"
try:
# مرحله 1: ناشناس‌سازی متن
# ✅ ساخت مثال برای amount (اگر انتخاب شده)
example_text = ""
if "amount" in self.entities_to_anonymize:
example_text = """
مثال:
متن اصلی: "فروش 50 میلیارد ریال در سال گذشته بود."
متن ناشناس: "فروش amount-01 در سال گذشته بود."
"""
prompt1 = f"""متن زیر را ناشناس کنید. قوانین:
{instructions_text}
{example_text}
متن:
{text}
خروجی: فقط متن ناشناس شده (بدون توضیح اضافی)"""
response1 = requests.post(
"https://api.cerebras.ai/v1/chat/completions",
headers={
"Authorization": f"Bearer {self.cerebras_key}",
"Content-Type": "application/json"
},
json={
"model": "llama-3.3-70b",
"messages": [{"role": "user", "content": prompt1}],
"max_tokens": 4096,
"temperature": 0.1
},
timeout=60
)
if response1.status_code != 200:
logger.error(f"❌ Cerebras Error: {response1.status_code}")
raise Exception(f"Cerebras API Error: {response1.status_code}")
anonymized_text = response1.json()['choices'][0]['message']['content'].strip()
logger.info("✅ Cerebras: ناشناس‌سازی موفق")
# مرحله 2: استخراج mapping - فقط برای موجودیت‌های انتخابی
mapping_instructions = []
json_example = "{\n"
if "person" in self.entities_to_anonymize:
mapping_instructions.append('- برای person-XX: نام کامل شخص (مثلاً "علی احمدی")')
json_example += ' "person-01": "متن اصلی کامل",\n'
if "company" in self.entities_to_anonymize:
mapping_instructions.append('- برای company-XX: نام کامل شرکت/سازمان (مثلاً "شرکت پتروشیمی")')
json_example += ' "company-01": "متن اصلی کامل",\n'
if "amount" in self.entities_to_anonymize:
mapping_instructions.append('- برای amount-XX: عدد + واحد (مثلاً "80 هزار تومان" یا "50 میلیارد ریال")')
json_example += ' "amount-01": "متن اصلی کامل با واحد",\n'
if "percent" in self.entities_to_anonymize:
mapping_instructions.append('- برای percent-XX: عدد + کلمه "درصد" (مثلاً "40 درصد" نه فقط "40")')
json_example += ' "percent-01": "عدد + درصد",\n'
json_example += " ...\n}"
mapping_instructions_text = "\n".join(mapping_instructions)
prompt2 = f"""متن اصلی:
{text}
متن ناشناس شده:
{anonymized_text}
لطفاً یک جدول mapping برای همه توکن‌های ناشناس ایجاد کن.
برای هر توکن، متن اصلی کامل آن را مشخص کن.
**مهم:**
{mapping_instructions_text}
خروجی را به این فرمت JSON بده (فقط JSON، بدون توضیح اضافی):
{json_example}"""
response2 = requests.post(
"https://api.cerebras.ai/v1/chat/completions",
headers={
"Authorization": f"Bearer {self.cerebras_key}",
"Content-Type": "application/json"
},
json={
"model": "llama-3.3-70b",
"messages": [{"role": "user", "content": prompt2}],
"max_tokens": 2048,
"temperature": 0.1
},
timeout=60
)
if response2.status_code == 200:
mapping_text = response2.json()['choices'][0]['message']['content'].strip()
mapping_text = mapping_text.replace('```json', '').replace('```', '').strip()
try:
self.mapping_table = json.loads(mapping_text)
self._fix_percent_mapping()
self.reverse_mapping = {v: k for k, v in self.mapping_table.items()}
logger.info(f"✅ Mapping استخراج شد: {len(self.mapping_table)} موجودیت")
except json.JSONDecodeError:
logger.warning("⚠️ خطا در parse کردن JSON mapping - استفاده از روش fallback")
self._extract_mapping_from_text(text, anonymized_text)
else:
logger.warning("⚠️ خطا در دریافت mapping - استفاده از روش fallback")
self._extract_mapping_from_text(text, anonymized_text)
return anonymized_text, self.mapping_table
except Exception as e:
logger.error(f"❌ Cerebras Exception: {e}")
raise
def _fix_percent_mapping(self):
"""اصلاح mapping برای درصدها"""
for token, value in self.mapping_table.items():
value_str = str(value).strip()
if token.startswith('percent-'):
if not re.search(r'(درصد|%|درصدی)', value_str):
self.mapping_table[token] = f"{value_str} درصد"
logger.info(f"✅ اصلاح {token}: '{value_str}' → '{value_str} درصد'")
elif token.startswith('amount-'):
if not re.search(r'(میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)', value_str):
logger.warning(f"⚠️ {token}: فقط عدد '{value_str}' - واحد مشخص نیست")
def _extract_mapping_from_text(self, original: str, anonymized: str):
"""استخراج mapping از متن‌های اصلی و ناشناس شده - فقط برای موجودیت‌های انتخابی"""
# ✅ استخراج فقط توکن‌های انتخابی
all_tokens = []
for entity_type in self.entities_to_anonymize:
tokens = re.findall(f'{entity_type}-\\d+', anonymized)
all_tokens.extend([(t, entity_type) for t in tokens])
all_tokens = sorted(set(all_tokens), key=lambda x: (x[1], int(x[0].split('-')[1])))
# ✅ الگوهای موجودیت - فقط برای انتخابی‌ها
patterns = {}
if "person" in self.entities_to_anonymize:
patterns['person'] = r'\b[ء-ي]+\s+[ء-ي]+(?:\s+[ء-ي]+)*\b'
if "company" in self.entities_to_anonymize:
patterns['company'] = r'(?:شرکت|بانک|سازمان|گروه|هلدینگ)\s+[ء-ي]+(?:\s+[ء-ي]+)*'
if "amount" in self.entities_to_anonymize:
patterns['amount'] = r'\d+(?:\.\d+)?\s*(?:میلیارد|میلیون|هزار|تومان|ریال|دلار|یورو|تن)'
if "percent" in self.entities_to_anonymize:
patterns['percent'] = r'\d+(?:\.\d+)?\s*(?:درصد|%|درصدی)'
original_entities = {}
for entity_type, pattern in patterns.items():
matches = list(re.finditer(pattern, original))
original_entities[entity_type] = [m.group().strip() for m in matches]
for token, entity_type in all_tokens:
if entity_type in original_entities and original_entities[entity_type]:
token_num = int(token.split('-')[1]) - 1
if token_num < len(original_entities[entity_type]):
original_text = original_entities[entity_type][token_num]
self.mapping_table[token] = original_text
self.reverse_mapping[original_text] = token
else:
original_text = original_entities[entity_type][-1]
if token not in self.mapping_table:
self.mapping_table[token] = original_text
self.reverse_mapping[original_text] = token
def analyze_with_llm(self, anonymized_text: str, analysis_prompt: str = None) -> str:
"""استفاده از LLM یکپارچه"""
logger.info(f"🤖 {self.llm_provider.upper()} اجرای پرامپت...")
if not analysis_prompt or not analysis_prompt.strip():
logger.info("⚠️ پرامپت خالی - بدون تحلیل")
return "⚠️ هیچ دستور تحلیل داده نشده است"
# ✅ بررسی اینکه آیا مدل GPT-4 است
is_gpt4 = self.llm_model and any(x in self.llm_model.lower() for x in ['gpt-4', 'gpt4'])
if is_gpt4:
# ✅ پرامپت ویژه GPT-4 با مثال‌های واقعی
logger.info("🎯 استفاده از پرامپت ویژه GPT-4")
return self._analyze_with_gpt4_prompt(anonymized_text, analysis_prompt)
else:
# پرامپت عادی برای GPT-5 و Grok
return self._analyze_with_standard_prompt(anonymized_text, analysis_prompt)
def _analyze_with_gpt4_prompt(self, anonymized_text: str, analysis_prompt: str) -> str:
"""پرامپت ویژه GPT-4 با few-shot examples"""
# ✅ مثال‌های واقعی Few-Shot
few_shot_examples = """
EXAMPLE 1 - CORRECT:
Input: "company-01 فروش amount-01 داشت"
Your output should be EXACTLY: "company-01 فروش amount-01 داشت"
NOT: "company-01 فروش مبلغ amount-01 داشت"
EXAMPLE 2 - CORRECT:
Input: "amount-02 به amount-03 رسید"
Your output should be EXACTLY: "amount-02 به amount-03 رسید"
NOT: "مبلغ amount-02 به amount-03 رسید"
EXAMPLE 3 - CORRECT:
Input: "company-01 سود percent-01 داشت"
Your output should be EXACTLY: "company-01 سود percent-01 داشت"
NOT: "شرکت company-01 سود درصد percent-01 داشت"
"""
# لیست توکن‌های انتخابی
tokens_list = []
if "person" in self.entities_to_anonymize:
tokens_list.append("person-XX")
if "company" in self.entities_to_anonymize:
tokens_list.append("company-XX")
if "amount" in self.entities_to_anonymize:
tokens_list.append("amount-XX")
if "percent" in self.entities_to_anonymize:
tokens_list.append("percent-XX")
tokens_str = ", ".join(tokens_list)
# ✅ پرامپت انگلیسی برای GPT-4 (بهتر کار می‌کند)
combined_text = f"""You are processing anonymized Persian/Farsi text containing placeholder tokens.
ANONYMIZED TEXT:
{anonymized_text}
USER REQUEST:
{analysis_prompt}
CRITICAL RULES:
1. Use ONLY these exact tokens: {tokens_str}
2. NEVER add words before/after tokens
3. Keep the EXACT format: amount-01 (not "مبلغ amount-01" or "amount- 01")
4. Do NOT create new tokens
5. Preserve the exact structure
{few_shot_examples}
FORBIDDEN PATTERNS - NEVER USE:
❌ "مبلغ amount-01" → ✅ Use: "amount-01"
❌ "شرکت company-01" → ✅ Use: "company-01"
❌ "فروش به amount-02" → ✅ Use: "فروش amount-02"
❌ "درصد percent-01" → ✅ Use: "percent-01"
❌ "amount- 01" (space) → ✅ Use: "amount-01"
Now process the text following these rules EXACTLY."""
try:
# ✅ temperature خیلی پایین برای GPT-4
logger.info(f"🌡️ Temperature: 0.05 (GPT-4 ویژه)")
response = self.llm_sender.send(
combined_text,
lang='en', # انگلیسی برای GPT-4
temperature=0.05, # خیلی خیلی پایین
max_tokens=2000
)
# ✅ دیباگ: نمایش خروجی خام LLM
logger.info("=" * 60)
logger.info("🔍 DEBUG - خروجی خام GPT-4:")
logger.info(response[:500] + "..." if len(response) > 500 else response)
logger.info("=" * 60)
# ✅ پاکسازی قوی‌تر
cleaned_response = self._clean_llm_response(response)
# ✅ دیباگ: نمایش خروجی بعد از clean
logger.info("=" * 60)
logger.info("🧹 DEBUG - خروجی بعد از clean:")
logger.info(cleaned_response[:500] + "..." if len(cleaned_response) > 500 else cleaned_response)
logger.info("=" * 60)
logger.info(f"✅ GPT-4: {len(cleaned_response)} کاراکتر")
return cleaned_response
except Exception as e:
logger.error(f"❌ GPT-4 Exception: {e}")
return f"❌ خطا در ارتباط با GPT-4: {str(e)}"
def _analyze_with_standard_prompt(self, anonymized_text: str, analysis_prompt: str) -> str:
"""پرامپت استاندارد برای GPT-5 و Grok"""
tokens_instruction = []
examples = []
if "person" in self.entities_to_anonymize:
tokens_instruction.append("person-XX")
examples.append("✅ صحیح: person-01 در جلسه حضور داشت\n❌ غلط: آقای person-01")
if "company" in self.entities_to_anonymize:
tokens_instruction.append("company-XX")
examples.append("✅ صحیح: company-01 فعالیت کرد\n❌ غلط: شرکت company-01")
if "amount" in self.entities_to_anonymize:
tokens_instruction.append("amount-XX")
examples.append("✅ صحیح: فروش amount-01 بود\n❌ غلط: فروش مبلغ amount-01")
if "percent" in self.entities_to_anonymize:
tokens_instruction.append("percent-XX")
examples.append("✅ صحیح: رشد percent-01 داشت\n❌ غلط: رشد درصد percent-01")
tokens_str = ", ".join(tokens_instruction)
examples_str = "\n".join(examples)
combined_text = f"""متن ناشناس‌سازی شده:
{anonymized_text}
دستورات:
{analysis_prompt}
⚠️ قوانین مهم:
1. فقط از کدهای ناشناس موجود استفاده کن: {tokens_str}
2. هیچ کلمه‌ای قبل یا بعد از این کدها اضافه نکن
3. کد جدید ایجاد نکن
4. ساختار دقیق متن را حفظ کن
مثال‌های صحیح و غلط:
{examples_str}"""
try:
temp_to_use = 0.2
logger.info(f"🌡️ Temperature: {temp_to_use}")
response = self.llm_sender.send(
combined_text,
lang='fa',
temperature=temp_to_use,
max_tokens=2000
)
response = self._clean_llm_response(response)
logger.info(f"✅ {self.llm_provider.upper()}: {len(response)} کاراکتر")
return response
except Exception as e:
logger.error(f"❌ {self.llm_provider.upper()} Exception: {e}")
return f"❌ خطا در ارتباط با {self.llm_provider.upper()}: {str(e)}"
def _clean_llm_response(self, text: str) -> str:
"""پاکسازی کلمات اضافی که LLM ممکن است قبل از موجودیت‌ها اضافه کرده باشد"""
logger.info("🧹 پاکسازی کلمات اضافی...")
cleaned = text
changes_made = 0
# الگوهای کلمات اضافی برای هر نوع موجودیت
patterns = []
if "person" in self.entities_to_anonymize:
patterns.extend([
(r'(?:آقای|خانم|شخص|فرد)\s+(person-\d+)', r'\1'),
(r'(person-\d+)\s+(?:نامدار|محترم|عزیز)', r'\1'),
])
if "company" in self.entities_to_anonymize:
patterns.extend([
(r'(?:شرکت|سازمان|گروه|هلدینگ|بانک|موسسه)\s+(company-\d+)', r'\1'),
(r'(company-\d+)\s+(?:محترم)', r'\1'),
])
if "amount" in self.entities_to_anonymize:
patterns.extend([
# ✅ الگوهای کامل برای amount - تمام حالات ممکن
# حالت 1: کلمات قبل از amount
(r'(?:مبلغ|رقم|عدد|قیمت|ارزش|مقدار)\s+(amount-\d+)', r'\1'),
(r'(?:فروش|درآمد|سود|زیان|هزینه|خرج)\s+(amount-\d+)', r'\1'),
(r'(?:دارایی|بدهی|سرمایه|پول|وام)\s+(amount-\d+)', r'\1'),
# حالت 2: حروف اضافه قبل از amount
(r'\bبه\s+(amount-\d+)', r'\1'),
(r'\bبا\s+(amount-\d+)', r'\1'),
(r'\bاز\s+(amount-\d+)', r'\1'),
(r'\bتا\s+(amount-\d+)', r'\1'),
(r'\bدر\s+(amount-\d+)', r'\1'),
(r'\bبرای\s+(amount-\d+)', r'\1'),
# حالت 3: واحدها بعد از amount (اگر نباید باشند)
(r'(amount-\d+)\s+(?:ریال|تومان|دلار|یورو)', r'\1'),
(r'(amount-\d+)\s+(?:میلیون|میلیارد|هزار|تریلیون)', r'\1'),
# حالت 4: ترکیبات
(r'(?:به\s+مبلغ)\s+(amount-\d+)', r'\1'),
(r'(?:با\s+ارزش)\s+(amount-\d+)', r'\1'),
(r'(?:در\s+حد)\s+(amount-\d+)', r'\1'),
# حالت 5: فعل + amount (بدون حرف اضافه)
(r'(?:رسید|رسیده|می\u200cرسد)\s+(amount-\d+)', r'\1'),
(r'(?:شد|شده|می\u200cشود)\s+(amount-\d+)', r'\1'),
(r'(?:بود|بوده|است)\s+(amount-\d+)', r'\1'),
])
if "percent" in self.entities_to_anonymize:
patterns.extend([
(r'(?:درصد|%)\s+(percent-\d+)', r'\1'),
(r'(percent-\d+)\s+(?:درصد|درصدی|%)', r'\1'),
])
# اعمال الگوها
for pattern, replacement in patterns:
new_text = re.sub(pattern, replacement, cleaned)
if new_text != cleaned:
count = len(re.findall(pattern, cleaned))
changes_made += count
cleaned = new_text
logger.info(f" ✅ حذف '{pattern}': {count} مورد")
if changes_made > 0:
logger.info(f"✅ {changes_made} کلمه اضافی حذف شد")
else:
logger.info("✅ کلمه اضافی یافت نشد")
return cleaned
def restore_text(self, anonymized_text: str) -> str:
"""بازگردانی متن با ترتیب بهینه برای amount"""
logger.info("🔄 بازگردانی متن...")
if not self.mapping_table:
logger.warning("⚠️ جدول نگاشت خالی است")
return anonymized_text
logger.info(f"📋 تعداد موجودیت‌ها در mapping: {len(self.mapping_table)}")
# ✅ STEP 1: normalize (hyphen یونیکد و جداسازی کلمات چسبیده)
restored = self._normalize_tokens(anonymized_text)
# ✅ STEP 2: restore قوی مخصوص amount با regex (قبل از clean!)
# این کلیدی است - باید قبل از clean انجام شود
logger.info("🔥 بازگردانی amount با regex...")
amount_restored_count = 0
for placeholder, original in self.mapping_table.items():
if placeholder.startswith("amount-"):
# استخراج شماره
num = placeholder.split("-")[1]
# الگوی regex: amount [فاصله اختیاری] - [فاصله اختیاری] شماره
pattern = rf'amount\s*-\s*{num}'
matches = re.findall(pattern, restored)
if matches:
restored = re.sub(pattern, original, restored)
amount_restored_count += 1
logger.info(f"✅ regex: {placeholder}{original[:30]}...")
if amount_restored_count > 0:
logger.info(f"✅ {amount_restored_count} amount با regex بازگردانی شد")
# ✅ STEP 3: clean (حذف کلمات اضافی)
# حالا که amount ها restore شدن، می‌تونیم clean کنیم
restored = self._clean_for_restore(restored)
# ✅ STEP 4: replace ساده برای بقیه (person, company, percent)
replacements_count = 0
for placeholder, original in sorted(self.mapping_table.items(), key=lambda x: len(x[0]), reverse=True):
# amount ها رو قبلاً restore کردیم
if placeholder.startswith("amount-"):
continue
if placeholder in restored:
restored = restored.replace(placeholder, original)
replacements_count += 1
logger.info(f"✅ {placeholder}{original[:30]}...")
else:
logger.warning(f"⚠️ {placeholder} در متن یافت نشد!")
total_restored = amount_restored_count + replacements_count
logger.info(f"✅ بازگردانی کامل - {total_restored}/{len(self.mapping_table)} جایگزین شد")
# ✅ STEP 5: fallback regex برای توکن‌های باقی‌مانده
if total_restored < len(self.mapping_table):
logger.info("🔍 تلاش برای یافتن توکن‌های گم‌شده با regex...")
restored = self._restore_with_regex(restored)
# هشدار در صورت شکست کامل
if total_restored == 0 and len(self.mapping_table) > 0:
logger.error("❌ هیچ توکنی جایگزین نشد! متن ورودی احتمالاً متفاوت است.")
return restored
def _clean_for_restore(self, text: str) -> str:
"""پاکسازی خاص برای بازگردانی (شبیه _clean_llm_response اما سبک‌تر)"""
logger.info("🧹 پاکسازی قبل از بازگردانی...")
cleaned = text
changes_made = 0
patterns = []
if "amount" in self.entities_to_anonymize:
patterns.extend([
(r'(?:مبلغ|رقم|عدد|قیمت|ارزش|فروش|درآمد|هزینه|سود|زیان)\s+(amount-\d+)', r'\1'),
(r'\bبه\s+(amount-\d+)', r'\1'),
(r'\bبا\s+(amount-\d+)', r'\1'),
(r'\bاز\s+(amount-\d+)', r'\1'),
(r'\bتا\s+(amount-\d+)', r'\1'),
])
for pattern, replacement in patterns:
new_text = re.sub(pattern, replacement, cleaned)
if new_text != cleaned:
changes_made += re.subn(pattern, replacement, cleaned)[1]
cleaned = new_text
if changes_made > 0:
logger.info(f"✅ {changes_made} کلمه اضافی حذف شد")
return cleaned
def _restore_with_regex(self, text: str) -> str:
"""بازگردانی با استفاده از regex برای پیدا کردن توکن‌های دارای کلمات اضافی"""
restored = text
for placeholder, original in self.mapping_table.items():
# اگر قبلاً جایگزین شده، رد شو
if placeholder not in text:
# الگوی regex: کلمه اضافی (اختیاری) + توکن
# مثلاً: "فروش amount-01" یا "مبلغ amount-05"
entity_type = placeholder.split('-')[0]
entity_num = placeholder.split('-')[1]
# الگوهای مختلف
patterns = [
# کلمه فارسی + فاصله + توکن
rf'[ء-ي]+\s+({entity_type}-{entity_num})\b',
# توکن + فاصله + کلمه فارسی
rf'\b({entity_type}-{entity_num})\s+[ء-ي]+',
# فاصله اضافی داخل توکن
rf'\b{entity_type}\s+-\s+{entity_num}\b',
]
for pattern in patterns:
matches = list(re.finditer(pattern, restored))
if matches:
logger.info(f"✅ پیدا شد با regex: {pattern}")
for match in matches:
# جایگزینی کل عبارت با فقط original
full_match = match.group(0)
# اگر توکن داخل match هست، فقط اون رو جایگزین کن
if placeholder in full_match:
restored = restored.replace(full_match, full_match.replace(placeholder, original))
else:
# اگر فرمت توکن متفاوت بود
restored = restored.replace(full_match, original)
logger.info(f"✅ regex: {placeholder}{original[:30]}...")
break
return restored
def _normalize_tokens(self, text: str) -> str:
"""نرمال‌سازی توکن‌ها - حذف فاصله‌های اضافی و hyphen یونیکد"""
logger.info("🧹 نرمال‌سازی توکن‌ها...")
normalized = text
changes = 0
# ✅ 1. نرمال‌سازی hyphen های یونیکد برای همه موجودیت‌ها
# این hyphen ها: ‐ ‑ ‒ – — − و hyphen معمولی -
unicode_hyphens = r'[\u2010\u2011\u2012\u2013\u2014\u2212\-]'
for entity_type in self.entities_to_anonymize:
# تبدیل همه hyphen ها به - معمولی
pattern = rf'{entity_type}{unicode_hyphens}(\d+)'
replacement = rf'{entity_type}-\1'
count = len(re.findall(pattern, normalized))
if count > 0:
normalized = re.sub(pattern, replacement, normalized)
changes += count
logger.info(f" ✅ {entity_type}: {count} hyphen یونیکد نرمال شد")
# ✅ 2. حذف فاضله‌های اضافی داخل توکن
for entity_type in self.entities_to_anonymize:
pattern = rf'{entity_type}\s+-\s+(\d+)'
replacement = rf'{entity_type}-\1'
count = len(re.findall(pattern, normalized))
if count > 0:
normalized = re.sub(pattern, replacement, normalized)
changes += count
logger.info(f" ✅ {entity_type}: {count} فاصله اضافی حذف شد")
# ✅ 3. جدا کردن توکن‌ها از کلمات فارسی چسبیده (ویژه amount)
# مثال: amount-01در → amount-01 در
if "amount" in self.entities_to_anonymize:
pattern = r'(amount-\d+)([ء-ي])'
replacement = r'\1 \2'
before = normalized
normalized = re.sub(pattern, replacement, normalized)
if normalized != before:
count = len(re.findall(pattern, before))
changes += count
logger.info(f" ✅ amount: {count} کلمه چسبیده جدا شد")
# ✅ 4. جدا کردن توکن‌ها از نشانه‌گذاری (ویژه amount)
# مثال: amount-01، → amount-01 ،
if "amount" in self.entities_to_anonymize:
pattern = r'(amount-\d+)([،؛:.!?])'
replacement = r'\1 \2'
before = normalized
normalized = re.sub(pattern, replacement, normalized)
if normalized != before:
count = len(re.findall(pattern, before))
changes += count
logger.info(f" ✅ amount: {count} نشانه‌گذاری جدا شد")
if changes > 0:
logger.info(f"✅ مجموع {changes} تغییر نرمال‌سازی")
return normalized
def get_mapping_table_md(self) -> str:
"""تبدیل جدول نگاشت به Markdown"""
if not self.mapping_table:
return "### 📋 جدول نگاشت\n\nهیچ موجودیتی شناسایی نشد"
table = "### 📋 جدول نگاشت\n\n"
table += "| شناسه | متن اصلی |\n"
table += "|-------|----------|\n"
for token, original in sorted(self.mapping_table.items()):
table += f"| **{token}** | {original} |\n"
return table
# متغیر سراسری
anonymizer = None
def process(
input_text: str,
analysis_prompt: str,
llm_provider: str,
llm_model: str,
anonymize_all: bool,
anonymize_person: bool,
anonymize_company: bool,
anonymize_amount: bool,
anonymize_percent: bool
):
"""پردازش متن - 4 مرحله"""
global anonymizer
if not input_text.strip():
return "", "", "", ""
# ✅ ساخت لیست موجودیت‌های انتخابی
if anonymize_all:
entities = ["person", "company", "amount", "percent"]
else:
entities = []
if anonymize_person:
entities.append("person")
if anonymize_company:
entities.append("company")
if anonymize_amount:
entities.append("amount")
if anonymize_percent:
entities.append("percent")
# اگه هیچی انتخاب نشده
if not entities:
return "", "❌ لطفاً حداقل یک موجودیت برای ناشناس‌سازی انتخاب کنید", "", ""
cerebras_key = os.getenv("CEREBRAS_API_KEY")
# ایجاد یا آپدیت anonymizer
if not anonymizer:
anonymizer = AnonymizerAdvanced(
cerebras_key,
llm_provider=llm_provider,
llm_model=llm_model,
entities_to_anonymize=entities
)
else:
anonymizer.set_llm_provider(llm_provider, llm_model, entities)
anonymizer.mapping_table = {}
anonymizer.reverse_mapping = {}
try:
logger.info("=" * 70)
logger.info(f"🚀 شروع پردازش - LLM: {llm_provider} ({llm_model})")
logger.info(f"🎯 موجودیت‌های انتخابی: {', '.join(entities)}")
logger.info("=" * 70)
# مرحله 1: ناشناس‌سازی
logger.info("🔐 مرحله 1: ناشناس‌سازی...")
anonymized_text, _ = anonymizer.anonymize_with_cerebras(input_text)
logger.info(f"✅ ناشناس‌سازی: {len(anonymized_text)} کاراکتر")
# ✅ دیباگ: بررسی توکن‌های موجود در متن ناشناس
logger.info("=" * 70)
logger.info("🔍 DEBUG - توکن‌های موجود در متن ناشناس:")
for entity_type in entities:
tokens_found = re.findall(f'{entity_type}-\\d+', anonymized_text)
unique_tokens = sorted(set(tokens_found))
logger.info(f" {entity_type}: {unique_tokens}")
logger.info("=" * 70)
# مرحله 2: LLM (فقط اگر analysis_prompt داده شده باشد)
has_analysis = analysis_prompt and analysis_prompt.strip()
if has_analysis:
logger.info(f"🤖 مرحله 2: {llm_provider.upper()}...")
llm_response = anonymizer.analyze_with_llm(anonymized_text, analysis_prompt)
logger.info(f"✅ {llm_provider.upper()}: {len(llm_response)} کاراکتر")
else:
logger.info("⚠️ مرحله 2: بدون تحلیل LLM (پرامپت خالی)")
llm_response = "⚠️ هیچ دستور تحلیل داده نشده است"
# مرحله 3: بازگردانی
logger.info("🔄 مرحله 3: بازگردانی...")
# ✅ اصلاح: اگر تحلیل انجام نشده، متن ناشناس اصلی رو restore کن
if has_analysis:
# اگر LLM تحلیل کرده، خروجی LLM رو restore کن
restored_text = anonymizer.restore_text(llm_response)
else:
# اگر تحلیل نشده، متن ناشناس اصلی رو restore کن
restored_text = anonymizer.restore_text(anonymized_text)
logger.info("✅ بازگردانی کامل")
# مرحله 4: جدول نگاشت
logger.info("📋 مرحله 4: جدول نگاشت...")
mapping_str = anonymizer.get_mapping_table_md()
logger.info(f"✅ {len(anonymizer.mapping_table)} موجودیت")
logger.info("=" * 70)
logger.info("✅ تمام مراحل کامل!")
logger.info("=" * 70)
return restored_text, llm_response, anonymized_text, mapping_str
except Exception as e:
logger.error(f"❌ خطا: {str(e)}", exc_info=True)
return "", f"❌ خطا: {str(e)}", "", ""
def clear_all():
"""پاک کردن همه"""
return "", "", "", "", "", "", True, False, False, False, False
# Gradio Interface
css_rtl = """
.input-box {
direction: rtl;
text-align: right;
}
.textbox textarea {
direction: rtl;
text-align: right;
font-family: 'Tahoma', serif;
}
.thick-divider {
border-top: 2px solid #333;
margin: 10px 0;
}
.compact-group {
margin: 0;
padding: 0;
}
.compact-checkbox label {
padding: 5px 10px !important;
margin: 3px 0 !important;
font-size: 0.95em !important;
}
"""
with gr.Blocks(title="سیستم ناشناس‌سازی متون", theme=gr.themes.Soft(), css=css_rtl) as app:
gr.Markdown("# 🔐 پلتفرم امن چت با مدل‌های متنوع و ناشناس‌سازی داده‌ها", elem_classes="input-box")
# ردیف اول: تنظیمات مدل و انتخاب موجودیت‌ها
with gr.Row():
# سمت راست: تنظیمات مدل
with gr.Column(scale=1):
with gr.Group():
gr.Markdown("### ⚙️ تنظیمات مدل", elem_classes="input-box")
llm_provider = gr.Dropdown(
choices=["chatgpt", "grok"],
value="chatgpt",
label="🤖 انتخاب مدل زبانی",
interactive=True
)
llm_model = gr.Dropdown(
choices=AVAILABLE_MODELS["chatgpt"],
value="gpt-4o-mini",
label="📦 انتخاب نسخه مدل",
interactive=True
)
# سمت چپ: انتخاب موجودیت‌ها
with gr.Column(scale=1):
with gr.Group():
gr.Markdown("### 🎯 انتخاب موجودیت‌ها", elem_classes="input-box")
anonymize_all = gr.Checkbox(
label="✅ همه موجودیت‌ها",
value=True,
elem_classes="input-box compact-checkbox"
)
anonymize_person = gr.Checkbox(
label="👤 اسامی اشخاص",
value=False,
elem_classes="input-box compact-checkbox"
)
anonymize_company = gr.Checkbox(
label="🏢 نام شرکت‌ها",
value=False,
elem_classes="input-box compact-checkbox"
)
anonymize_amount = gr.Checkbox(
label="💰 ارقام مالی",
value=False,
elem_classes="input-box compact-checkbox"
)
anonymize_percent = gr.Checkbox(
label="📊 درصدها",
value=False,
elem_classes="input-box compact-checkbox"
)
# خط جداکننده پررنگ
gr.Markdown("---", elem_classes="thick-divider")
# ردیف دوم: دستورات پردازش و متن ورودی
with gr.Row():
# سمت راست: دستورات پردازش
with gr.Column(scale=1):
gr.Markdown("### 📋 دستورات پردازش", elem_classes="input-box")
analysis_prompt = gr.Textbox(
lines=22,
placeholder="مثال: این متن را خلاصه کن\nیا: نکات کلیدی را استخراج کن",
label="📋 دستورات LLM (اختیاری)",
elem_classes="textbox"
)
# سمت چپ: متن ورودی
with gr.Column(scale=1):
gr.Markdown("### 📝 متن ورودی", elem_classes="input-box")
input_text = gr.Textbox(
lines=22,
placeholder="متن مالی/خبری را وارد کنید...",
label="",
elem_classes="textbox"
)
# دکمه‌های پردازش و پاک کردن
with gr.Row():
process_btn = gr.Button(
"▶️ پردازش",
variant="primary",
size="lg",
scale=2
)
clear_btn = gr.Button(
"🗑️ پاک کردن",
variant="stop",
size="lg",
scale=1
)
# نتایج
gr.Markdown("## 📊 نتایج پردازش", elem_classes="input-box")
with gr.Row():
with gr.Column(scale=1):
restored_text = gr.Textbox(
lines=12,
label="✅ متن بازگردانی شده",
interactive=False,
elem_classes="textbox"
)
with gr.Column(scale=1):
llm_analysis = gr.Textbox(
lines=12,
label="🤖 تحلیل LLM",
interactive=False,
elem_classes="textbox"
)
with gr.Column(scale=1):
anonymized_text = gr.Textbox(
lines=12,
label="🔒 متن ناشناس‌شده",
interactive=False,
elem_classes="textbox"
)
mapping_table = gr.Markdown(
value="### 📋 جدول نگاشت\n\nهنوز پردازشی انجام نشده",
label="📋 جدول نگاشت",
elem_classes="input-box"
)
# Event Handler برای تغییر provider
def handle_provider_change(provider):
models = AVAILABLE_MODELS.get(provider, [])
default_model = models[0] if models else None
return gr.update(choices=models, value=default_model)
llm_provider.change(
fn=handle_provider_change,
inputs=[llm_provider],
outputs=[llm_model]
)
def handle_select_all(select_all):
if select_all:
return (
gr.update(value=False, interactive=False),
gr.update(value=False, interactive=False),
gr.update(value=False, interactive=False),
gr.update(value=False, interactive=False)
)
else:
return (
gr.update(value=False, interactive=True),
gr.update(value=False, interactive=True),
gr.update(value=False, interactive=True),
gr.update(value=False, interactive=True)
)
anonymize_all.change(
fn=handle_select_all,
inputs=[anonymize_all],
outputs=[anonymize_person, anonymize_company, anonymize_amount, anonymize_percent]
)
# پردازش
process_btn.click(
fn=process,
inputs=[
input_text,
analysis_prompt,
llm_provider,
llm_model,
anonymize_all,
anonymize_person,
anonymize_company,
anonymize_amount,
anonymize_percent
],
outputs=[restored_text, llm_analysis, anonymized_text, mapping_table]
)
# پاک کردن
clear_btn.click(
fn=clear_all,
outputs=[
input_text,
analysis_prompt,
restored_text,
llm_analysis,
anonymized_text,
mapping_table,
anonymize_all,
anonymize_person,
anonymize_company,
anonymize_amount,
anonymize_percent
]
)
if __name__ == "__main__":
print("=" * 70)
print("🚀 سیستم ناشناس‌سازی متون در حال راه‌اندازی...")
print("=" * 70)
print("\n📋 نحوه استفاده:\n")
print("1. API Keyها را در Hugging Face Secrets تنظیم کنید:")
print(" - CEREBRAS_API_KEY (ضروری برای ناشناس‌سازی)")
print(" - OPENAI_API_KEY (برای ChatGPT)")
print(" - XAI_API_KEY (برای Grok)")
print("2. http://localhost:7860 را باز کنید")
print("3. مدل زبانی (ChatGPT/Grok) و نسخه مدل را انتخاب کنید")
print("4. موجودیت‌های مورد نظر برای ناشناس‌سازی را انتخاب کنید")
print("5. متن و دستورات پردازش را وارد کنید")
print("6. 'پردازش' را کلیک کنید\n")
print("🔐 تمام API Keyها از Hugging Face Secrets خوانده می‌شوند")
print("📦 مدل‌های پشتیبانی شده:")
print(" • ChatGPT GPT-5: gpt-5.1, gpt-5")
print(" • ChatGPT GPT-4: gpt-4.1, gpt-4o, gpt-4o-mini, gpt-4-turbo")
print(" • Grok-4: grok-4-fast-reasoning, grok-4-fast-non-reasoning, grok-4-0709")
print(" • Grok-3: grok-3, grok-3-mini")
print(" • Grok-2: grok-2-vision-1212, grok-2-1212, grok-2")
print("=" * 70 + "\n")
app.launch(
server_name="0.0.0.0",
server_port=7860,
share=False,
show_error=True
)