File size: 1,438 Bytes
489a920
6b3c0f8
 
 
 
 
 
489a920
6b3c0f8
489a920
6b3c0f8
489a920
6b3c0f8
489a920
6b3c0f8
 
 
 
 
489a920
6b3c0f8
489a920
6b3c0f8
 
 
489a920
6b3c0f8
489a920
 
 
 
6b3c0f8
 
 
489a920
6b3c0f8
 
 
 
 
489a920
 
6b3c0f8
489a920
6b3c0f8
 
 
489a920
 
 
6b3c0f8
489a920
6b3c0f8
489a920
 
6b3c0f8
 
 
489a920
6b3c0f8
489a920
6b3c0f8
489a920
 
6b3c0f8
489a920
6b3c0f8
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
---
license: apache-2.0
language:
- tr
tags:
- text-generation-inference
- agent
---
# SixFinger-2B

Bu model, [Kumru-2B](https://huggingface.co,vngrs-ai/Kumru-2B) temel alınarak RTX 3060 Laptop GPU üzerinde fine-tune edilmiştir.

## 📋 Model Detayları

- **Base Model:** Kumru-2B
- **Model Tipi:** Causal Language Model
- **Parametre Sayısı:** ~2B
- **Fine-tuning Donanımı:** NVIDIA RTX 3060 Laptop GPU
- **Geliştirici:** SixFingerDev

## 🎯 Kullanım Alanları

Bu model aşağıdaki görevler için optimize edilmiştir:
- Matematik
- Metin Tamamlama

## 💻 Kullanım

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "sixfingerdev/sixfinger-2b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# Metin üretimi
prompt = "Merhaba, bugün"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))
```

## 🔧 Fine-tuning Detayları

- **Epoch Sayısı:** 3
- **Batch Size:** 8
- **QLoRA** 



## ⚠️ Limitasyonlar

- Laptop GPU ile eğitildiği için belirli kısıtlamalar bulunabilir


## 📜 Lisans

[Lisans bilgisi - Apache 2.0]

## 🙏 Teşekkürler

- VNGRS ekibine temel model için teşekkürler

---
**Not:** Bu model eğitim/araştırma amaçlıdır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.

---