--- language: - pl library_name: transformers pipeline_tag: text-generation license: apache-2.0 base_model: google/gemma-3-4b-it tags: - polish - law - civil-code - gemma - fine-tuned --- # gemma-civil-code-pl Model Gemma 3 (4B) dostrojony do wiedzy z Kodeksu Cywilnego, odpowiadający na pytania prawne ## Opis modelu Model bazuje na Gemma 3 (4B) i został dostrojony do odpowiadania na pytania dotyczące Kodeksu Cywilnego. Wykorzystano dane z artykułów Kodeksu Cywilnego wraz z interpretacjami i przykładami zastosowania. ## Przykładowe użycie ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch # Załaduj model i tokenizer model_name = "keeeeesz/gemma-civil-code-pl" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto", ) # Formatuj pytanie w formacie chatowym def format_prompt(pytanie): return f"user\n{pytanie}" # Generuj odpowiedź pytanie = "Co stanowi artykuł 5 Kodeksu cywilnego?" prompt = format_prompt(pytanie) inputs = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate( **inputs, max_new_tokens=512, do_sample=True, temperature=0.7, top_p=0.9, ) # Wyodrębnij odpowiedź response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) ```