⚠️ VAŽNA OBAVIJEST / IMPORTANT NOTICE

OGRANIČENJE ODGOVORNOSTI (DISCLAIMER) ZA KORISNIKE U RH

Ovaj model (CroGuana) je eksperimentalni istraživački projekt i NIJE namijenjen za produkcijsku upotrebu. Korištenjem modela prihvaćate sljedeće uvjete:

  1. Istraživačka namjena: Model je razvijen isključivo u svrhe testiranja obrade hrvatskog jezika (NLP). Zabranjena je uporaba u komercijalne svrhe bez dodatnih sigurnosnih provjera.
  2. Zabrana kritične primjene: Izričito je ZABRANJENO korištenje modela u sustavima koji mogu ugroziti život, zdravlje ili imovinu (npr. medicina, pravo, upravljanje strojevima, automatizirano donošenje odluka).
  3. Nepredvidljivost: Model može generirati netočne, pristrane ili opasne informacije (hallucinations). Autor ne jamči za točnost izlaza.
  4. Isključenje odgovornosti: Sukladno prijedlozima Zakona o provedbi Uredbe o AI u RH, autor (Tomislav Kraljević Shome) se u potpunosti odriče bilo kakve građanske ili kaznene odgovornosti za štetu (uključujući uništenje imovine) nastalu korištenjem ovog modela protivno navedenim uputama.
  5. Odgovornost korisnika: Korisnik koji model "stavlja u pogon" ili integrira u druge sustave preuzima punu odgovornost za usklađenost s Aktom o AI i lokalnim zakonima.

Uploaded model

  • Developed by: Shome
  • License: cc-by-sa-4.0
  • Finetuned from model : gordicaleksa/YugoGPT

Model prompt:

"### Korisnik:\n[upit]\n### AI asistent:\n[odgovor]\n"

Fine tuning je za chat mode, gornji template se može produžiti koliko je potrebno.

Ctx size u trainu je 8192

This mistral model was trained 2x faster with Unsloth and Huggingface's TRL library.

Downloads last month
38
Safetensors
Model size
7B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Shome/croguana-RC2

Finetuned
(1)
this model
Quantizations
1 model

Datasets used to train Shome/croguana-RC2