File size: 1,421 Bytes
d8d150c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
---
language:
- pl
library_name: transformers
pipeline_tag: text-generation
license: apache-2.0
base_model: google/gemma-3-4b-it
tags:
- polish
- law
- civil-code
- gemma
- fine-tuned
---

# gemma-civil-code-pl

Model Gemma 3 (4B) dostrojony do wiedzy z Kodeksu Cywilnego, odpowiadający na pytania prawne

## Opis modelu

Model bazuje na Gemma 3 (4B) i został dostrojony do odpowiadania na pytania dotyczące Kodeksu Cywilnego.
Wykorzystano dane z artykułów Kodeksu Cywilnego wraz z interpretacjami i przykładami zastosowania.

## Przykładowe użycie

```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# Załaduj model i tokenizer
model_name = "keeeeesz/gemma-civil-code-pl"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto",
)

# Formatuj pytanie w formacie chatowym
def format_prompt(pytanie):
    return f"<start_of_turn>user\n{pytanie}<end_of_turn>"

# Generuj odpowiedź
pytanie = "Co stanowi artykuł 5 Kodeksu cywilnego?"
prompt = format_prompt(pytanie)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
    **inputs,
    max_new_tokens=512,
    do_sample=True,
    temperature=0.7,
    top_p=0.9,
)

# Wyodrębnij odpowiedź
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```