Cosmos-Math-Gpt2 (Türkçe Matematik Modeli)

Bu model, Türkçe matematik problemlerini adım adım mantık yürüterek (Chain of Thought) çözmek için geliştirilmiştir. Model ilk olarak next token prediction ile pre-training yapılmıştır. 2.adım olarak Sft uygulanmış ve son olarak Dpo algoritması uygulanarak fine-tuning işlemleri yapılmıştır.

ytu-ce-cosmos/turkish-gpt2-medium taban modeli üzerine inşa edilmiş olup, önce SFT (Supervised Fine-Tuning) ardından DPO (Direct Preference Optimization) yöntemleri ile GSM8K-TR veri seti üzerinde eğitilmiştir.

Model Yetenekleri

  • İlkokul ve ortaokul seviyesindeki matematik problemlerini çözer.
  • Problemi parçalara ayırır ve adım adım anlatır.
  • Sonucu #### [Cevap] formatında verir.

Nasıl Kullanılır?

Modeli kullanmak için aşağıdaki Python kodunu çalıştırabilirsiniz. Model "### Soru:" ve "### Cevap:" formatına duyarlıdır.

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 1. Modeli Yükle
model_name = "KullaniciAdin/Cosmos-TR-Math-v1"  # Burayı kendi kullanıcı adınla değiştir
device = "cuda" if torch.cuda.is_available() else "cpu"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 2. Tahmin Fonksiyonu
def solve_math_problem(question):
    # Prompt formatı eğitimdeki gibi olmalı
    prompt = f"### Soru: {question}\n### Cevap:"
    
    inputs = tokenizer(prompt, return_tensors="pt").to(device)
    
    with torch.no_grad():
        outputs = model.generate(
            **inputs,
            max_new_tokens=256,      # Cevap uzunluğu
            do_sample=False,         # Deterministik (Daha tutarlı cevaplar için)
            temperature=0.0,
            pad_token_id=tokenizer.eos_token_id
        )
    
    # Sadece cevabı al
    full_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return full_text.split("### Cevap:")[-1].strip()

# 3. Örnek Kullanım
soru = "Ali'nin 50 lirası var. Tanesi 5 lira olan kalemlerden 3 tane alırsa geriye kaç lirası kalır?"
cevap = solve_math_problem(soru)

print(f"SORU: {soru}")
print("-" * 30)
print(f"CEVAP:\n{cevap}")
Downloads last month
12
Safetensors
Model size
0.4B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for OnurAkyar/Cosmos-Math-Gpt2

Finetuned
(9)
this model

Dataset used to train OnurAkyar/Cosmos-Math-Gpt2