|
|
--- |
|
|
license: apache-2.0 |
|
|
language: |
|
|
- tr |
|
|
tags: |
|
|
- text-generation-inference |
|
|
- agent |
|
|
--- |
|
|
# SixFinger-2B |
|
|
|
|
|
Bu model, [Kumru-2B](https://huggingface.co,vngrs-ai/Kumru-2B) temel alınarak RTX 3060 Laptop GPU üzerinde fine-tune edilmiştir. |
|
|
|
|
|
## 📋 Model Detayları |
|
|
|
|
|
- **Base Model:** Kumru-2B |
|
|
- **Model Tipi:** Causal Language Model |
|
|
- **Parametre Sayısı:** ~2B |
|
|
- **Fine-tuning Donanımı:** NVIDIA RTX 3060 Laptop GPU |
|
|
- **Geliştirici:** SixFingerDev |
|
|
|
|
|
## 🎯 Kullanım Alanları |
|
|
|
|
|
Bu model aşağıdaki görevler için optimize edilmiştir: |
|
|
- Matematik |
|
|
- Metin Tamamlama |
|
|
|
|
|
## 💻 Kullanım |
|
|
|
|
|
```python |
|
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
|
|
model_name = "sixfingerdev/sixfinger-2b" |
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
model = AutoModelForCausalLM.from_pretrained(model_name) |
|
|
|
|
|
# Metin üretimi |
|
|
prompt = "Merhaba, bugün" |
|
|
inputs = tokenizer(prompt, return_tensors="pt") |
|
|
outputs = model.generate(**inputs, max_length=100) |
|
|
print(tokenizer.decode(outputs[0])) |
|
|
``` |
|
|
|
|
|
## 🔧 Fine-tuning Detayları |
|
|
|
|
|
- **Epoch Sayısı:** 3 |
|
|
- **Batch Size:** 8 |
|
|
- **QLoRA** |
|
|
|
|
|
|
|
|
|
|
|
## ⚠️ Limitasyonlar |
|
|
|
|
|
- Laptop GPU ile eğitildiği için belirli kısıtlamalar bulunabilir |
|
|
|
|
|
|
|
|
## 📜 Lisans |
|
|
|
|
|
[Lisans bilgisi - Apache 2.0] |
|
|
|
|
|
## 🙏 Teşekkürler |
|
|
|
|
|
- VNGRS ekibine temel model için teşekkürler |
|
|
|
|
|
--- |
|
|
**Not:** Bu model eğitim/araştırma amaçlıdır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir. |
|
|
|
|
|
--- |