Ahmed-Alghamdi commited on
Commit
d957734
·
verified ·
1 Parent(s): 9ba1e0c

Update config.py

Browse files
Files changed (1) hide show
  1. config.py +10 -12
config.py CHANGED
@@ -4,20 +4,18 @@ class Config:
4
  DOCUMENT_FILE = 'RAG DATA.txt'
5
  EMBEDDING_MODEL = 'sentence-transformers/paraphrase-multilingual-mpnet-base-v2'
6
 
7
- # التعديلات هنا:
8
  BATCH_SIZE = 32
 
9
 
10
- # زدنا العدد لكي يقرأ 6 فقرات بدلاً من 3 لضمان التقاط المادة وقاعدتها التنفيذية
11
- TOP_K = 4
 
12
 
13
- # قللنا النسبة قليلاً ليقبل نصوصاً قد لا تحتوي نفس الكلمات بالضبط لكنها في نفس السياق
14
- MIN_SIMILARITY_SCORE = 0.28
15
 
16
- # زدنا حجم الفقرة الواحدة ليقرأ نصاً أطول قبل أن يقطعه
17
- MAX_LENGTH = 1000
18
-
19
- # إعدادات الموديل (تأكد أنها كما عدلناها سابقاً)
20
  GROQ_API_KEY = os.getenv("GROQ_API_KEY")
21
- LLM_MODEL = "llama-3.1-8b-instant"
22
-
23
- #The strong model : llama-3.3-70b-versatile
 
4
  DOCUMENT_FILE = 'RAG DATA.txt'
5
  EMBEDDING_MODEL = 'sentence-transformers/paraphrase-multilingual-mpnet-base-v2'
6
 
7
+ # --- إعدادات المعالجة ---
8
  BATCH_SIZE = 32
9
+ MAX_LENGTH = 1000 # نبقيه كبيراً لأننا عدلنا ملف المعالجة
10
 
11
+ # --- حل مشكلة "لا تتوفر معلومات" ---
12
+ # كان 0.28 وهو رقم مرتفع، سنخفضه ليسمح بمرور فقرات أكثر حتى لو كانت نسبة الشبه أقل
13
+ MIN_SIMILARITY_SCORE = 0.20
14
 
15
+ # نقلل العدد قليلاً لتسريع المعالجة (5 فقرات كافية جداً مع الموديل السريع)
16
+ TOP_K = 5
17
 
18
+ # --- حل مشكلة البطء (هام جداً) ---
19
+ # استخدام الموديل السريع جداً "Instant" بدلاً من الموديل الضخم
 
 
20
  GROQ_API_KEY = os.getenv("GROQ_API_KEY")
21
+ LLM_MODEL = "llama-3.1-8b-instant"