⚠️ VAŽNA OBAVIJEST / IMPORTANT NOTICE

OGRANIČENJE ODGOVORNOSTI (DISCLAIMER) ZA KORISNIKE U RH

Ovaj model (CroGuana) je eksperimentalni istraživački projekt i NIJE namijenjen za produkcijsku upotrebu. Korištenjem modela prihvaćate sljedeće uvjete:

  1. Istraživačka namjena: Model je razvijen isključivo u svrhe testiranja obrade hrvatskog jezika (NLP). Zabranjena je uporaba u komercijalne svrhe bez dodatnih sigurnosnih provjera.
  2. Zabrana kritične primjene: Izričito je ZABRANJENO korištenje modela u sustavima koji mogu ugroziti život, zdravlje ili imovinu (npr. medicina, pravo, upravljanje strojevima, automatizirano donošenje odluka).
  3. Nepredvidljivost: Model može generirati netočne, pristrane ili opasne informacije (hallucinations). Autor ne jamči za točnost izlaza.
  4. Isključenje odgovornosti: Sukladno prijedlozima Zakona o provedbi Uredbe o AI u RH, autor (Tomislav Kraljević Shome) se u potpunosti odriče bilo kakve građanske ili kaznene odgovornosti za štetu (uključujući uništenje imovine) nastalu korištenjem ovog modela protivno navedenim uputama.
  5. Odgovornost korisnika: Korisnik koji model "stavlja u pogon" ili integrira u druge sustave preuzima punu odgovornost za usklađenost s Aktom o AI i lokalnim zakonima.

Uploaded model

  • Developed by: Shome
  • License: cc-by-sa-4.0
  • Finetuned from model : gordicaleksa/YugoGPT

Model prompt:

"### Korisnik:\n[upit]\n### AI asistent:\n[odgovor]\n"

Fine tuning je za chat mode, gornji template se može produžiti koliko je potrebno.

Ctx size u trainu je 8192

This mistral model was trained 2x faster with Unsloth and Huggingface's TRL library.

Downloads last month
61
GGUF
Model size
7B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

5-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Shome/croguana-RC2-gguf

Quantized
(11)
this model

Datasets used to train Shome/croguana-RC2-gguf