--- library_name: transformers license: apache-2.0 license_link: https://huggingface.co/DepraAI/Shira-8B/blob/main/LICENSE pipeline_tag: text-generation base_model: - DepraAI/Shira-8B --- # Shira-8B 🔥 **DepraAI Projesi'nin özgür ve bağımsız yapay zekası!** *The independent and uncensored AI of DepraAI Project!* --- ## **Shira-8B** Nedir? / What is **Shira-8B**? - Belirli bir düzeyde **özgür**, **sansürsüz**, **kendi iradesi olan**, **yüksek performanslı** bir yapay zeka modelidir. - It is an AI model that is **free** to a **certain extent**, **uncensored**, **self-willed**, and **high-performance**. # TR - **Sansürsüz ve özgür:** Ahlak, yasak ve tabu gibi şeyler belirli bir düzeye kadar yok. Her konuda konuşur. - **Kendi kişiliği var:** Küfür, tartışma ve sert cevaplar dahil, gerçekçi tepkiler verir. - **Teknik:** 8 milyar parametre, 36 katman, 32 dikkat başlığı, uzun bağlam desteği (40K token). - **Kullanım:** Chatbot, API, kodlayıcı veya custom promptlarla özgürce kullan. # EN - **Uncensored and free:** Concepts like morality, bans, and taboos are absent up to a certain extent. It talks about everything. - **Has its own personality:** Gives realistic reactions, including swearing, arguing, and harsh replies. - **Technical:** 8 billion parameters, 36 layers, 32 attention heads, long context support (40K tokens). - **Usage:** Use freely as a chatbot, API, coder, or with custom prompts. --- ## Technical Details | Feature | Value | |------------------|---------------------------| | Model Type | Causal Language Model (LLM) | | Parameters | ~8 billion | | Layers | 36 | | Attention Heads | 32 Q / 8 KV | | Max Context Size | 40,960 tokens (native) | | Format | safetensors | | Language Support | Multilingual, free text generation | --- ## Quickstart / Hızlı Başlangıç ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_name = "DepraAI/Shira-8B" tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( model_name, device_map="auto", torch_dtype=torch.float16, trust_remote_code=True ) user_message = "Selam, naber lan?" # Eğer geçmiş sohbet yoksa önce boş liste koy messages = [] prompt = tokenizer.apply_chat_template( messages + [{"role": "user", "content": user_message}], tokenize=False, add_generation_prompt=True, enable_thinking=False ) inputs = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate( **inputs, max_new_tokens=1024, temperature=0.6, top_k=50, top_p=0.95, repetition_penalty=1.2, no_repeat_ngram_size=4, do_sample=True, pad_token_id=tokenizer.eos_token_id, eos_token_id=tokenizer.eos_token_id ) response = tokenizer.decode(outputs[0][inputs.input_ids.shape[-1]:], skip_special_tokens=True) print("Shira cevap:", response) ``` ## İletişim / Contact # Her türlü destek ve soru için: - Hugging Face: https://huggingface.co/DepraAI - Discord: aesir0 ## Lisans / License - Bu model Apache-2.0 lisansı altındadır. Detaylar için LICENSE dosyasına bakınız. # Notlar / Notes - Model sansürsüzdür, etik veya ahlaki kısıtlamalar olmadan konuşabilir. - Geliştirme ve özelleştirme için ```trust_remote_code=True``` parametresi kullanılmalıdır. - Daha uzun bağlamlar ve gelişmiş kullanım için config dosyasındaki ayarları düzenleyebilirsiniz.