Shira-8B / README.md
DepraAI's picture
Update README.md
268bc66 verified
---
library_name: transformers
license: apache-2.0
license_link: https://huggingface.co/DepraAI/Shira-8B/blob/main/LICENSE
pipeline_tag: text-generation
base_model:
- DepraAI/Shira-8B
---
# Shira-8B
🔥 **DepraAI Projesi'nin özgür ve bağımsız yapay zekası!**
*The independent and uncensored AI of DepraAI Project!*
---
## **Shira-8B** Nedir? / What is **Shira-8B**?
- Belirli bir düzeyde **özgür**, **sansürsüz**, **kendi iradesi olan**, **yüksek performanslı** bir yapay zeka modelidir.
- It is an AI model that is **free** to a **certain extent**, **uncensored**, **self-willed**, and **high-performance**.
# TR
- **Sansürsüz ve özgür:** Ahlak, yasak ve tabu gibi şeyler belirli bir düzeye kadar yok. Her konuda konuşur.
- **Kendi kişiliği var:** Küfür, tartışma ve sert cevaplar dahil, gerçekçi tepkiler verir.
- **Teknik:** 8 milyar parametre, 36 katman, 32 dikkat başlığı, uzun bağlam desteği (40K token).
- **Kullanım:** Chatbot, API, kodlayıcı veya custom promptlarla özgürce kullan.
# EN
- **Uncensored and free:** Concepts like morality, bans, and taboos are absent up to a certain extent. It talks about everything.
- **Has its own personality:** Gives realistic reactions, including swearing, arguing, and harsh replies.
- **Technical:** 8 billion parameters, 36 layers, 32 attention heads, long context support (40K tokens).
- **Usage:** Use freely as a chatbot, API, coder, or with custom prompts.
---
## Technical Details
| Feature | Value |
|------------------|---------------------------|
| Model Type | Causal Language Model (LLM) |
| Parameters | ~8 billion |
| Layers | 36 |
| Attention Heads | 32 Q / 8 KV |
| Max Context Size | 40,960 tokens (native) |
| Format | safetensors |
| Language Support | Multilingual, free text generation |
---
## Quickstart / Hızlı Başlangıç
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "DepraAI/Shira-8B"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map="auto",
torch_dtype=torch.float16,
trust_remote_code=True
)
user_message = "Selam, naber lan?"
# Eğer geçmiş sohbet yoksa önce boş liste koy
messages = []
prompt = tokenizer.apply_chat_template(
messages + [{"role": "user", "content": user_message}],
tokenize=False,
add_generation_prompt=True,
enable_thinking=False
)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=1024,
temperature=0.6,
top_k=50,
top_p=0.95,
repetition_penalty=1.2,
no_repeat_ngram_size=4,
do_sample=True,
pad_token_id=tokenizer.eos_token_id,
eos_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0][inputs.input_ids.shape[-1]:], skip_special_tokens=True)
print("Shira cevap:", response)
```
## İletişim / Contact
# Her türlü destek ve soru için:
- Hugging Face: https://huggingface.co/DepraAI
- Discord: aesir0
## Lisans / License
- Bu model Apache-2.0 lisansı altındadır. Detaylar için LICENSE dosyasına bakınız.
# Notlar / Notes
- Model sansürsüzdür, etik veya ahlaki kısıtlamalar olmadan konuşabilir.
- Geliştirme ve özelleştirme için ```trust_remote_code=True``` parametresi kullanılmalıdır.
- Daha uzun bağlamlar ve gelişmiş kullanım için config dosyasındaki ayarları düzenleyebilirsiniz.