Dataset eval_loss Accuracy F1 Precision Recall
val 0.581012 0.8152 0.8125 0.8142 0.8131
test 0.549228 0.8313 0.8177 0.8216 0.8193

Labels

{0: 'Por贸wnanie koszt贸w i efektywno艣ci r贸偶nych technologii energetycznych (atom, OZE, magazyny)',
 1: 'Promieniowanie jonizuj膮ce: normy, zagro偶enia i ochrona zdrowia',
 2: 'Dok艂adne 藕r贸d艂a i analizy dotycz膮ce ryzyka i koszt贸w zwi膮zanych z energi膮 j膮drow膮',
 3: 'Ocena prawdopodobie艅stwa i skutk贸w awarii w obiektach przemys艂owych',
 4: 'Ocena ryzyka politycznego i dyplomatycznego',
 5: 'Stan techniczny system贸w ch艂odzenia i bezpiecze艅stwa w elektrowniach j膮drowych',
 6: 'Eksperckie oceny bezpiecze艅stwa j膮drowego - niezale偶ne stanowiska ekspert贸w',
 7: 'Pomiar i analiza danych dotycz膮cych promieniowania j膮drowego',
 8: 'Historia incydent贸w i ich wp艂yw na elektrownie j膮drowe',
 9: 'Problemy i do艣wiadczenia zwi膮zane z budow膮 reaktor贸w j膮drowych typu AP1000',
 10: 'Gospodarowanie odpadami promieniotw贸rczymi - lokalizacja, koszty i odpowiedzialno艣膰 prawna',
 11: 'Analiza wra偶liwo艣ci projekt贸w energetycznych na op贸藕nienia i zmiany koszt贸w',
 12: 'Harmonogram i kamienie milowe projektu budowlanego',
 13: 'Wp艂yw r贸偶nych modeli finansowania na gospodarstwa domowe i przemys艂',
 14: 'Model finansowania inwestycji',
 15: 'Bezpiecze艅stwo elektrowni j膮drowej WVER-1200 - raporty MAEA i niezale偶ne inspekcje',
 16: 'Zarz膮dzanie konfliktami interes贸w w audycie j膮drowym',
 17: 'Transfer technologii i lokalizacja produkcji Westinghouse Bechtel w Polsce',
 18: 'Dowody na produkcj臋 broni j膮drowej poprzez analizy zdj臋膰 satelitarnych i raport贸w organizacji mi臋dzynarodowych',
 19: 'Ocena spo艂ecznej akceptacji projektu budowlanego przez lokalne spo艂eczno艣ci'}

Usage Example

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

# Load model and tokenizer from Hugging Face
model_name = "eoplumbum/polish-herbert-layperson-missing-info"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Example text
text = "Koszty ekonomiczne: inwestycja, eksploatacja, demonta偶 i utylizacja paliwa vs alternatywy grzewcze"

# Tokenize the text
inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=512)

# Get predictions
with torch.no_grad():
    outputs = model(**inputs)
    probs = outputs.logits.softmax(dim=1)
    pred_idx = probs.argmax(dim=1).item()

# Map predicted index to label
pred_label = model.config.id2label[pred_idx]

print(f"Prediction: {pred_label}, Probabilities: {probs}")
Downloads last month
-
Safetensors
Model size
0.1B params
Tensor type
F32
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support