| Dataset | eval_loss | Accuracy | F1 | Precision | Recall |
|---|---|---|---|---|---|
| val | 0.581012 | 0.8152 | 0.8125 | 0.8142 | 0.8131 |
| test | 0.549228 | 0.8313 | 0.8177 | 0.8216 | 0.8193 |
Labels
{0: 'Por贸wnanie koszt贸w i efektywno艣ci r贸偶nych technologii energetycznych (atom, OZE, magazyny)',
1: 'Promieniowanie jonizuj膮ce: normy, zagro偶enia i ochrona zdrowia',
2: 'Dok艂adne 藕r贸d艂a i analizy dotycz膮ce ryzyka i koszt贸w zwi膮zanych z energi膮 j膮drow膮',
3: 'Ocena prawdopodobie艅stwa i skutk贸w awarii w obiektach przemys艂owych',
4: 'Ocena ryzyka politycznego i dyplomatycznego',
5: 'Stan techniczny system贸w ch艂odzenia i bezpiecze艅stwa w elektrowniach j膮drowych',
6: 'Eksperckie oceny bezpiecze艅stwa j膮drowego - niezale偶ne stanowiska ekspert贸w',
7: 'Pomiar i analiza danych dotycz膮cych promieniowania j膮drowego',
8: 'Historia incydent贸w i ich wp艂yw na elektrownie j膮drowe',
9: 'Problemy i do艣wiadczenia zwi膮zane z budow膮 reaktor贸w j膮drowych typu AP1000',
10: 'Gospodarowanie odpadami promieniotw贸rczymi - lokalizacja, koszty i odpowiedzialno艣膰 prawna',
11: 'Analiza wra偶liwo艣ci projekt贸w energetycznych na op贸藕nienia i zmiany koszt贸w',
12: 'Harmonogram i kamienie milowe projektu budowlanego',
13: 'Wp艂yw r贸偶nych modeli finansowania na gospodarstwa domowe i przemys艂',
14: 'Model finansowania inwestycji',
15: 'Bezpiecze艅stwo elektrowni j膮drowej WVER-1200 - raporty MAEA i niezale偶ne inspekcje',
16: 'Zarz膮dzanie konfliktami interes贸w w audycie j膮drowym',
17: 'Transfer technologii i lokalizacja produkcji Westinghouse Bechtel w Polsce',
18: 'Dowody na produkcj臋 broni j膮drowej poprzez analizy zdj臋膰 satelitarnych i raport贸w organizacji mi臋dzynarodowych',
19: 'Ocena spo艂ecznej akceptacji projektu budowlanego przez lokalne spo艂eczno艣ci'}
Usage Example
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
# Load model and tokenizer from Hugging Face
model_name = "eoplumbum/polish-herbert-layperson-missing-info"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Example text
text = "Koszty ekonomiczne: inwestycja, eksploatacja, demonta偶 i utylizacja paliwa vs alternatywy grzewcze"
# Tokenize the text
inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=512)
# Get predictions
with torch.no_grad():
outputs = model(**inputs)
probs = outputs.logits.softmax(dim=1)
pred_idx = probs.argmax(dim=1).item()
# Map predicted index to label
pred_label = model.config.id2label[pred_idx]
print(f"Prediction: {pred_label}, Probabilities: {probs}")
- Downloads last month
- -
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support