NovaAI / README.md
veteroner's picture
Upload README.md
09875cb verified
---
title: Teknova Nova AI
emoji: 🚀
colorFrom: red
colorTo: blue
sdk: transformers
license: apache-2.0
language:
- tr
- en
tags:
- text-generation
- conversational
- turkish
- teknova
- nova-ai
- chat
- assistant
pipeline_tag: text-generation
library_name: transformers
---
# 🚀 Teknova Nova AI
**Türkiye'nin Özgün Yapay Zeka Modeli**
Teknova Nova AI, Türkçe konuşma ve anlama konusunda optimize edilmiş, tamamen özgün bir dil modelidir. Mistral-7B mimarisi üzerine inşa edilmiş ancak Teknova tarafından özel olarak fine-tune edilmiştir.
---
## 🌟 **Model Özellikleri**
### ✨ **Özgün Teknova Teknolojisi**
- 🧠 **Türkçe Optimizasyonu** - Türkçe dil yapısına özel eğitim
- 💬 **Doğal Konuşma** - İnsan benzeri etkileşim yetenekleri
- 🎯 **Bağlamsal Anlama** - Gelişmiş anlam çıkarma
-**Hızlı Yanıt** - Optimize edilmiş performans
- 🔧 **Çok Amaçlı** - Sohbet, yazma, analiz yetenekleri
### 🛠️ **Teknik Detaylar**
- **Temel Model:** Mistral-7B mimarisi
- **Parametre Sayısı:** 7.24 milyar
- **Eğitim Dili:** Türkçe + İngilizce
- **Bağlam Uzunluğu:** 8192 token
- **Model Formatı:** SafeTensors + PyTorch
---
## 🚀 **Kullanım**
### 💻 **Transformers ile**
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# Nova AI modelini yükle
model_name = "Teknova/NovaAI"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
# Sohbet örneği
def chat_with_nova(message):
conversation = f"Kullanıcı: {message}\nNova AI:"
inputs = tokenizer(conversation, return_tensors="pt")
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.9,
do_sample=True,
pad_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
return response[len(conversation):].strip()
# Örnek kullanım
response = chat_with_nova("Merhaba Nova AI, nasılsın?")
print(response)
```
### 🌐 **API ile Kullanım**
```python
import requests
API_URL = "https://api-inference.huggingface.co/models/Teknova/NovaAI"
headers = {"Authorization": "Bearer YOUR_HF_TOKEN"}
def query_nova_ai(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
# Örnek sorgu
output = query_nova_ai({
"inputs": "Yapay zeka teknolojileri hakkında bilgi ver",
"parameters": {
"max_new_tokens": 256,
"temperature": 0.7,
"top_p": 0.9
}
})
print(output)
```
---
## 💡 **Örnek Kullanım Alanları**
### 🎯 **Sohbet ve Asistan**
- Müşteri hizmetleri chatbotu
- Kişisel asistan uygulamaları
- Eğitim ve öğretim desteği
### 📝 **İçerik Üretimi**
- Blog yazısı ve makale yazımı
- Sosyal medya içeriği
- Yaratıcı yazım desteği
### 🔍 **Analiz ve Özetleme**
- Metin analizi ve özetleme
- Duygu analizi
- Bilgi çıkarma
---
## ⚙️ **Model Parametreleri**
| Parametre | Değer | Açıklama |
|-----------|-------|----------|
| `temperature` | 0.7 | Yaratıcılık seviyesi (0.1-1.5) |
| `top_p` | 0.9 | Nucleus sampling |
| `max_new_tokens` | 512 | Maksimum yanıt uzunluğu |
| `repetition_penalty` | 1.1 | Tekrar önleme |
---
## 🎨 **Demo ve Uygulamalar**
### 🌐 **Web Arayüzü**
- **Gradio Demo:** [Nova AI Chat](https://huggingface.co/spaces/Teknova/NovaAI-Chat)
- **HTML Arayüz:** Kendi web sitenizde kullanabilirsiniz
### 📱 **Entegrasyon**
```javascript
// Web sitesinde kullanım örneği
const API_URL = 'https://api-inference.huggingface.co/models/Teknova/NovaAI';
async function queryNovaAI(text) {
const response = await fetch(API_URL, {
headers: {
'Authorization': 'Bearer YOUR_TOKEN',
'Content-Type': 'application/json'
},
method: 'POST',
body: JSON.stringify({
inputs: text,
parameters: {
max_new_tokens: 256,
temperature: 0.7
}
})
});
return await response.json();
}
```
---
## 📊 **Performans**
### 🚀 **Hız ve Verimlilik**
- **CPU Modunda:** ~2-3 saniye yanıt süresi
- **GPU Modunda:** ~0.5-1 saniye yanıt süresi
- **Bellek Kullanımı:** ~14.5GB model boyutu
- **Optimizasyon:** 4-bit quantization desteği
### 🎯 **Kalite Metrikleri**
- **Türkçe Doğruluk:** Yüksek seviyede Türkçe anlama
- **Bağlamsal Tutarlılık:** Uzun konuşmalarda tutarlı yanıtlar
- **Yaratıcılık:** Özgün ve çeşitli içerik üretimi
---
## 🔧 **Sistem Gereksinimleri**
### 💻 **Minimum Gereksinimler**
- **RAM:** 16GB (4-bit quantization ile)
- **GPU:** 8GB VRAM (RTX 3070 veya üzeri)
- **CPU:** 4 çekirdek, 2.5GHz+
- **Depolama:** 20GB boş alan
### 🚀 **Önerilen Gereksinimler**
- **RAM:** 32GB
- **GPU:** 16GB+ VRAM (RTX 4080/4090)
- **CPU:** 8+ çekirdek, 3.0GHz+
- **Depolama:** SSD, 50GB+ boş alan
---
## 📜 **Lisans ve Kullanım**
Bu model **Apache 2.0** lisansı altında yayınlanmıştır. Ticari ve akademik kullanım için serbesttir.
### ⚠️ **Önemli Notlar**
- Model özgün Teknova teknolojisi içermektedir
- Türkçe optimizasyonları Teknova tarafından geliştirilmiştir
- Responsible AI ilkelerine uygun olarak kullanılmalıdır
---
## 🏢 **Teknova Hakkında**
**Teknova**, Türkiye'nin öncü yapay zeka teknoloji şirketidir. Özgün AI çözümleri geliştirerek teknoloji dünyasında fark yaratmayı hedefliyoruz.
### 🎯 **Misyonumuz**
Yapay zeka teknolojilerini Türkçe konuşan kullanıcılar için optimize etmek ve erişilebilir kılmak.
### 🚀 **Vizyonumuz**
Türkiye'den dünyaya özgün yapay zeka teknolojileri ihraç etmek.
---
## 📞 **İletişim ve Destek**
- **🌐 Website:** [teknova.ai](https://teknova.ai)
- **📧 E-posta:** info@teknova.ai
- **💬 Destek:** [GitHub Issues](https://github.com/teknova-ai/nova-ai/issues)
- **📱 Sosyal Medya:** [@TeknovaAI](https://twitter.com/TeknovaAI)
---
## 🙏 **Teşekkürler**
Nova AI'yi kullandığınız için teşekkürler! Geri bildirimleriniz bizim için değerlidir.
**Teknova Nova AI** - *Türkiye'nin Özgün Yapay Zeka Teknolojisi* 🚀