ysn-rfd's picture
Upload 43 files
db37698 verified
raw
history blame
14.1 kB
# smart_context.py - اصلاح تابع retrieve_context
async def retrieve_context(self, query: str, max_tokens: int = None) -> List[Dict[str, Any]]:
"""بازیابی هوشمند context مرتبط با query"""
if max_tokens is None:
max_tokens = self.max_context_tokens
start_time = datetime.now()
# 1. دریافت embedding برای query
query_embedding = self.embedding_manager.get_embedding(query)
# 2. بازیابی از لایه‌های مختلف حافظه
retrieved_memories = []
# از حافظه فعال (همیشه)
retrieved_memories.extend(self._retrieve_from_working_memory())
# از حافظه اخیر (بر اساس شباهت)
recent_memories = await self._retrieve_semantic_memories(query_embedding, 'recent')
retrieved_memories.extend(recent_memories)
# از حافظه بلندمدت (اطلاعات مهم)
long_term_memories = await self._retrieve_semantic_memories(query_embedding, 'long_term')
retrieved_memories.extend(long_term_memories)
# از حافظه هسته (اطلاعات حیاتی کاربر)
core_memories = self._retrieve_core_memories(query)
retrieved_memories.extend(core_memories)
# 3. حذف تکراری‌ها و مرتب‌سازی
unique_memories = self._deduplicate_memories(retrieved_memories)
prioritized_memories = self._prioritize_memories(unique_memories, query_embedding)
# 4. انتخاب تا سقف توکن
final_context = []
total_tokens = 0
for memory in prioritized_memories:
memory_tokens = memory['node'].tokens if 'node' in memory else 50
if total_tokens + memory_tokens <= max_tokens:
final_context.append(memory)
total_tokens += memory_tokens
else:
break
# 5. به‌روزرسانی آمار
self.stats['retrieved_memories'] += len(final_context)
retrieval_time = (datetime.now() - start_time).total_seconds()
logger.info(f"Retrieved {len(final_context)} memories in {retrieval_time:.2f}s")
return final_context
# اصلاح تابع get_context_for_api
async def get_context_for_api(self, query: str = None) -> List[Dict[str, Any]]:
"""تهیه context برای ارسال به API"""
# اگر query داریم، context هوشمند بازیابی کن
if query:
retrieved = await self.retrieve_context(query)
# تبدیل به فرمت API
api_messages = []
# ابتدا اطلاعات پروفایل کاربر
api_messages.append({
'role': 'system',
'content': f"User profile: {self._format_user_profile()}"
})
# سپس حافظه‌های بازیابی شده
for memory in retrieved:
node = memory['node']
api_messages.append({
'role': node.role,
'content': node.content
})
return api_messages
else:
# حالت ساده: فقط حافظه فعال
api_messages = []
for node in list(self.memory_layers['working'])[-6:]:
api_messages.append({
'role': node.role,
'content': node.content
})
return api_messages
# main.py - اصلاح تابع _process_user_request
async def _process_user_request(update: Update, context: ContextTypes.DEFAULT_TYPE):
chat_id = update.effective_chat.id
user_message = update.message.text
user_id = update.effective_user.id
start_time = time.time()
try:
await context.bot.send_chat_action(chat_id=chat_id, action="typing")
# استفاده از Context هوشمند اگر فعال باشد
if HAS_SMART_CONTEXT:
smart_context = _get_or_create_smart_context(user_id)
# پردازش پیام کاربر با سیستم هوشمند
await smart_context.process_message("user", user_message)
# بازیابی context مرتبط
retrieved_context = await smart_context.retrieve_context(user_message, max_tokens=1024)
# آماده‌سازی پیام‌ها برای API
messages = await smart_context.get_context_for_api(user_message)
logger.info(f"Smart context: {len(messages)} messages retrieved for user {user_id}")
else:
# استفاده از سیستم قدیمی
user_context = data_manager.get_context_for_api(user_id)
data_manager.add_to_user_context(user_id, "user", user_message)
messages = user_context.copy()
messages.append({"role": "user", "content": user_message})
# ارسال به API
response = await client.chat.completions.create(
model="mlabonne/gemma-3-27b-it-abliterated:featherless-ai",
messages=messages,
temperature=1.0,
top_p=0.95,
stream=False,
)
end_time = time.time()
response_time = end_time - start_time
data_manager.update_response_stats(response_time)
ai_response = response.choices[0].message.content
# ذخیره پاسخ در سیستم مناسب
if HAS_SMART_CONTEXT:
await smart_context.process_message("assistant", ai_response)
else:
data_manager.add_to_user_context(user_id, "assistant", ai_response)
await update.message.reply_text(ai_response)
data_manager.update_user_stats(user_id, update.effective_user)
except httpx.TimeoutException:
logger.warning(f"Request timed out for user {user_id}.")
await update.message.reply_text("⏱️ ارتباط با سرور هوش مصنوعی طولانی شد. لطفاً دوباره تلاش کنید.")
except Exception as e:
logger.error(f"Error while processing message for user {user_id}: {e}")
await update.message.reply_text("❌ متاسفانه در پردازش درخواست شما مشکلی پیش آمد. لطفاً دوباره تلاش کنید.")
# smart_context.py - اصلاح توابع async
async def _retrieve_semantic_memories(self, query_embedding: np.ndarray,
layer: str) -> List[Dict[str, Any]]:
"""بازیابی حافظه‌های معنایی"""
memories = []
if layer not in self.memory_layers:
return memories
layer_memories = self.memory_layers[layer]
for item in layer_memories:
node = item if hasattr(item, 'embeddings') else item['node'] if isinstance(item, dict) else None
if node and node.embeddings is not None:
similarity = self.embedding_manager.cosine_similarity(
query_embedding, node.embeddings
)
if similarity > self.semantic_similarity_threshold:
recency_weight = 1.0 if layer == 'working' else 0.7
memories.append({
'node': node,
'source': layer,
'relevance': similarity,
'recency': recency_weight,
'importance': node.importance_score
})
return memories
# اصلاح تابع process_message برای جلوگیری از block کردن
async def process_message(self, role: str, content: str) -> Dict[str, Any]:
"""پرداش کامل یک پیام جدید"""
start_time = datetime.now()
# 1. تحلیل پیام
analysis = self.analyzer.analyze_message(content, role)
# 2. ایجاد گره حافظه
message_id = self._generate_message_id(content)
# ایجاد embedding به صورت غیرهمزمان
embedding_task = asyncio.create_task(
self._get_embedding_async(content)
)
node = MessageNode(
id=message_id,
content=content,
role=role,
timestamp=datetime.now(),
message_type=analysis['type'],
importance_score=analysis['importance'],
emotion_score=analysis['emotion'],
tokens=data_manager.count_tokens(content),
embeddings=None, # موقتاً None
metadata={
'analysis': analysis,
'topics': analysis['topics'],
'intent': analysis['intent'],
'complexity': analysis['complexity']
}
)
# دریافت embedding (اگر موجود باشد)
try:
node.embeddings = await asyncio.wait_for(embedding_task, timeout=2.0)
except asyncio.TimeoutError:
logger.warning(f"Embedding generation timeout for message {message_id}")
node.embeddings = self.embedding_manager.get_embedding(content)
# 3. افزودن به حافظه و گراف
await asyncio.to_thread(self._add_to_memory_layers, node, analysis)
await asyncio.to_thread(self.memory_graph.add_node, node)
# 4. ایجاد ارتباطات
await asyncio.to_thread(self._create_memory_connections, node)
# 5. به‌روزرسانی پروفایل کاربر
if role == 'user':
await asyncio.to_thread(self._update_user_profile, content, analysis)
# 6. بهینه‌سازی حافظه
await asyncio.to_thread(self._optimize_memory)
# 7. به‌روزرسانی آمار
self.stats['total_messages'] += 1
self.stats['average_importance'] = (
self.stats['average_importance'] * (self.stats['total_messages'] - 1) +
analysis['importance']
) / self.stats['total_messages']
# 8. ذخیره داده‌ها
await asyncio.to_thread(self._save_data)
processing_time = (datetime.now() - start_time).total_seconds()
logger.info(f"Processed message {message_id} in {processing_time:.2f}s, importance: {analysis['importance']:.2f}")
return {
'node_id': message_id,
'analysis': analysis,
'processing_time': processing_time
}
async def _get_embedding_async(self, text: str) -> np.ndarray:
"""دریافت embedding به صورت async"""
loop = asyncio.get_event_loop()
return await loop.run_in_executor(
None,
self.embedding_manager.get_embedding,
text
)
# admin_panel.py - اصلاح توابع async در smart_context
@admin_only
async def admin_smart_context_stats(update: Update, context: ContextTypes.DEFAULT_TYPE):
"""نمایش آمار context هوشمند برای کاربران"""
if not HAS_SMART_CONTEXT:
await update.message.reply_text("⚠️ سیستم context هوشمند فعال نیست.")
return
if not context.args:
await update.message.reply_text("⚠️ لطفاً آیدی کاربر را وارد کنید.\nمثال: `/smart_stats 123456789`")
return
user_id = int(context.args[0])
# بررسی وجود مدیر context
if user_id not in smart_context_managers:
smart_context_managers[user_id] = IntelligentContextManager(user_id)
smart_context = smart_context_managers[user_id]
summary = await asyncio.to_thread(smart_context.get_summary)
# ... بقیه کد بدون تغییر
# smart_context.py - اضافه کردن خطاگیری بهتر
async def retrieve_context(self, query: str, max_tokens: int = None) -> List[Dict[str, Any]]:
"""بازیابی هوشمند context مرتبط با query"""
try:
if max_tokens is None:
max_tokens = self.max_context_tokens
start_time = datetime.now()
# دریافت embedding با timeout
try:
embedding_task = asyncio.create_task(
self._get_embedding_async(query)
)
query_embedding = await asyncio.wait_for(embedding_task, timeout=3.0)
except asyncio.TimeoutError:
logger.warning(f"Embedding timeout for query: {query[:50]}")
query_embedding = self.embedding_manager.get_embedding(query)
# بازیابی از حافظه‌های مختلف به صورت موازی
tasks = []
# حافظه فعال
tasks.append(asyncio.create_task(
asyncio.to_thread(self._retrieve_from_working_memory)
))
# حافظه معنایی
tasks.append(self._retrieve_semantic_memories(query_embedding, 'recent'))
tasks.append(self._retrieve_semantic_memories(query_embedding, 'long_term'))
# حافظه هسته
tasks.append(asyncio.create_task(
asyncio.to_thread(self._retrieve_core_memories, query)
))
# اجرای موازی همه tasks
results = await asyncio.gather(*tasks, return_exceptions=True)
# جمع‌آوری نتایج
retrieved_memories = []
for result in results:
if isinstance(result, Exception):
logger.error(f"Error retrieving memory: {result}")
continue
retrieved_memories.extend(result)
# ادامه پردازش...
# ... بقیه کد بدون تغییر
except Exception as e:
logger.error(f"Error in retrieve_context: {e}")
# Fallback: برگرداندن حافظه فعال
return self._retrieve_from_working_memory()