| language: tr | |
| license: mit | |
| datasets: | |
| - oscar/unshuffled_deduplicated_tr | |
| base_model: mistralai/Mistral-7B-v0.1 | |
| library_name: transformers | |
| pipeline_tag: text-generation | |
| tags: | |
| - turkish | |
| - language-model | |
| # 🇹🇷 Turkish LLM LoRA - Mistral 7B Fine-tuned Model | |
| Bu model, **Mistral-7B** üzerine Türkçe metinler ile eğitilmiş bir **LoRA (Low-Rank Adaptation)** versiyonudur. | |
| ## Model Bilgileri | |
| - **Temel Model:** [mistralai/Mistral-7B](https://huggingface.co/mistralai/Mistral-7B) | |
| - **Tür:** Causal Language Model (CLM) | |
| - **Kuantizasyon:** 4-bit LoRA | |
| - **Eğitim Verisi:** Türkçe metinlerden oluşan özel bir veri kümesi | |
| ## Eğitim Bilgileri | |
| - **Donanım:** i7 14700KF işlemci, RTX 4070 Super ekran kartı | |
| - **Eğitim Süresi:** 6 saat | |
| - **Ayarlar:** 4 epoch, batch size 1, gradient accumulation 16 | |
| ## Veri Seti | |
| - "oscar/unshuffled_deduplicated_tr" veri setinden ilk 10,000 örnek | |
| - Her veri 512 kelimeye kesildi | |
| ## Değerlendirme | |
| Türkçe cümle tamamlama yaptı, sonuçlar fena değildi. | |
| ## CO2 Emisyonları | |
| Hesaplanmadı |