File size: 1,438 Bytes
489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 489a920 6b3c0f8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 |
---
license: apache-2.0
language:
- tr
tags:
- text-generation-inference
- agent
---
# SixFinger-2B
Bu model, [Kumru-2B](https://huggingface.co,vngrs-ai/Kumru-2B) temel alınarak RTX 3060 Laptop GPU üzerinde fine-tune edilmiştir.
## 📋 Model Detayları
- **Base Model:** Kumru-2B
- **Model Tipi:** Causal Language Model
- **Parametre Sayısı:** ~2B
- **Fine-tuning Donanımı:** NVIDIA RTX 3060 Laptop GPU
- **Geliştirici:** SixFingerDev
## 🎯 Kullanım Alanları
Bu model aşağıdaki görevler için optimize edilmiştir:
- Matematik
- Metin Tamamlama
## 💻 Kullanım
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "sixfingerdev/sixfinger-2b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Metin üretimi
prompt = "Merhaba, bugün"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))
```
## 🔧 Fine-tuning Detayları
- **Epoch Sayısı:** 3
- **Batch Size:** 8
- **QLoRA**
## ⚠️ Limitasyonlar
- Laptop GPU ile eğitildiği için belirli kısıtlamalar bulunabilir
## 📜 Lisans
[Lisans bilgisi - Apache 2.0]
## 🙏 Teşekkürler
- VNGRS ekibine temel model için teşekkürler
---
**Not:** Bu model eğitim/araştırma amaçlıdır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.
--- |