File size: 3,558 Bytes
70302c3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
#!/usr/bin/env python3
"""
Türkçe Komplo Teorisi Tespit Modeli Test Scripti
"""

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

def test_model():
    """Model ve tokenizer'ı test eder"""
    
    print("🧪 Model test ediliyor...")
    
    try:
        # Model ve tokenizer'ı yükle
        print("📄 Model ve tokenizer yükleniyor...")
        tokenizer = AutoTokenizer.from_pretrained("./")
        model = AutoModelForSequenceClassification.from_pretrained("./")
        print("✅ Model başarıyla yüklendi!")
        
        # Model bilgilerini göster
        print(f"\n📊 Model Bilgileri:")
        print(f"   - Model Türü: {model.config.model_type}")
        print(f"   - Sınıf Sayısı: {model.config.num_labels}")
        print(f"   - Vocabulary Boyutu: {model.config.vocab_size}")
        print(f"   - Max Uzunluk: {model.config.max_position_embeddings}")
        print(f"   - Sınıf Etiketleri: {model.config.id2label}")
        
        # Test fonksiyonu
        def predict_text(text):
            """Verilen metni sınıflandırır"""
            inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True, max_length=512)
            
            with torch.no_grad():
                outputs = model(**inputs)
                predictions = torch.nn.functional.softmax(outputs.logits, dim=-1)
                
            probabilities = predictions[0].tolist()
            predicted_class = torch.argmax(predictions, dim=-1).item()
            
            return {
                'prediction': 'Komplo Teorisi' if predicted_class == 1 else 'Gerçek Haber',
                'confidence': max(probabilities),
                'probabilities': {
                    'Gerçek Haber': probabilities[0],
                    'Komplo Teorisi': probabilities[1]
                }
            }
        
        # Test örnekleri
        test_examples = [
            "5G teknolojisi insanları kontrol etmek için tasarlanmış gizli bir sistemdir.",
            "Bilim insanları, 5G teknolojisinin daha hızlı internet bağlantısı sağladığını doğruladı.",
            "COVID-19 aşıları insanların DNA'sını değiştirmek için tasarlanmıştır.",
            "COVID-19 aşıları, virüse karşı bağışıklık sistemini güçlendiren mRNA teknolojisi kullanır.",
            "Ay'a gerçekten hiç çıkmadık, tüm görüntüler Hollywood'da çekildi.",
            "NASA, Ay misyonlarından getirilen kaya örneklerini bilim insanlarına inceleme için sağladı."
        ]
        
        print(f"\n🧪 Test Örnekleri:")
        print("=" * 80)
        
        for i, text in enumerate(test_examples, 1):
            result = predict_text(text)
            print(f"\n{i}. Metin: {text}")
            print(f"   🎯 Tahmin: {result['prediction']}")
            print(f"   📊 Güven: {result['confidence']:.1%}")
            
            if result['probabilities']['Komplo Teorisi'] > 0.7:
                print(f"   ⚠️  Yüksek komplo teorisi riski!")
            elif result['probabilities']['Komplo Teorisi'] > 0.5:
                print(f"   ⚡ Orta düzey komplo teorisi riski.")
            else:
                print(f"   ✅ Güvenilir içerik.")
        
        print(f"\n🎉 Model test tamamlandı!")
        print(f"✅ Model çalışıyor ve tahminler yapabiliyor.")
        
    except Exception as e:
        print(f"❌ Hata: {e}")
        return False
    
    return True

if __name__ == "__main__":
    test_model()