Delete nuovo_logprob_minerva350
Browse files
nuovo_logprob_minerva350/README.md
DELETED
|
@@ -1,45 +0,0 @@
|
|
| 1 |
-
# Relazione Metodologica: Estrazione di Metriche Probabilistiche per l'Analisi di Interpretazioni Metaforiche
|
| 2 |
-
## 1. Introduzione
|
| 3 |
-
Il presente documento descrive il protocollo computazionale utilizzato per valutare quantitativamente le interpretazioni umane di stimoli metaforici attraverso un modello linguistico di grandi dimensioni (LLM). L'obiettivo è misurare il grado di "plausibilità" (o probabilità) che il modello assegna a specifiche interpretazioni fornite dai partecipanti, dato un determinato contesto metaforico.
|
| 4 |
-
## 2. Setup Sperimentale
|
| 5 |
-
### 2.1 Modello e Architettura
|
| 6 |
-
È stato utilizzato il modello Minerva-350M-base-v1.0, sviluppato da SapienzaNLP.
|
| 7 |
-
Tipo: Decoder-only Causal Language Model.
|
| 8 |
-
Specificità: Ottimizzato per la lingua italiana.
|
| 9 |
-
Modalità: Valutazione in zero-shot (il modello non ha ricevuto addestramento specifico sulle coppie metafora-interpretazione).
|
| 10 |
-
### 2.2 Dataset e Input
|
| 11 |
-
I dati consistono in:
|
| 12 |
-
Contesto Metaforico ($$C$$): La frase o il frame frasale che contiene la metafora.
|
| 13 |
-
Candidato Interpretazione ($$I$$): L'osservazione testuale fornita dai partecipanti per completare o spiegare il senso della metafora.
|
| 14 |
-
## 3. Metodologia di Scoring
|
| 15 |
-
Il nucleo del processo consiste nel calcolare la Log-Likelihood Condizionale. Vogliamo determinare la probabilità che il modello generi l'interpretazione $I$ immediatamente dopo aver "letto" il contesto $C$.
|
| 16 |
-
### 3.1 Elaborazione della Sequenza
|
| 17 |
-
Per ogni coppia, viene costruita una sequenza testuale concatenata $$S = [C; I]$$. Per garantire la corretta separazione dei token, viene inserito uno spazio di giunzione tra il contesto e l'interpretazione.
|
| 18 |
-
### 3.2 Calcolo della Log-Likelihood (LL)
|
| 19 |
-
Il modello assegna una probabilità a ogni token della sequenza. Tuttavia, per i nostri scopi, siamo interessati esclusivamente alla probabilità dei token che compongono l'interpretazione, condizionata dalla presenza del contesto.
|
| 20 |
-
Procedura tecnica:
|
| 21 |
-
Si calcola la lunghezza del contesto in termini di token ($$L_C$$).
|
| 22 |
-
Si esegue un forward pass del modello sulla sequenza completa.
|
| 23 |
-
Si applica una maschera di calcolo sulle etichette (labels): i token appartenenti al contesto $C$ vengono impostati a $-100$ (valore convenzionale per ignorarli nel calcolo della Loss in PyTorch).
|
| 24 |
-
La metrica estratta è la Log-Likelihood media per token:
|
| 25 |
-
$$LL(I|C) = -\text{CrossEntropy}(I_{L_C \dots L_{total}})$$
|
| 26 |
-
In termini intuitivi, un valore di LL più vicino allo zero (es. $-1.5$) indica un'interpretazione che il modello considera molto probabile/naturale; un valore molto negativo (es. $-8.0$) indica un'interpretazione ritenuta improbabile.
|
| 27 |
-
## 4. Normalizzazione e Metriche Finali
|
| 28 |
-
Poiché ogni metafora può avere più interpretazioni associate (derivate da diversi partecipanti), i punteggi grezzi vengono normalizzati per permettere un confronto relativo.
|
| 29 |
-
### 4.1 Probability Normalized (Softmax)
|
| 30 |
-
Per ogni metafora $m\_id$, i punteggi di log-likelihood ($score_i$) di tutte le interpretazioni associate vengono trasformati in una distribuzione di probabilità tramite la funzione Softmax:
|
| 31 |
-
|
| 32 |
-
$$P(I_i) = \frac{e^{score_i}}{\sum_{j=1}^{n} e^{score_j}}$$
|
| 33 |
-
Questa metrica risponde alla domanda: "Data questa specifica metafora, quanto è probabile questa interpretazione rispetto alle altre fornite dai partecipanti?"
|
| 34 |
-
## 5. Fondamento Metodologico e Replicabilità
|
| 35 |
-
Per replicare l'esperimento, è necessario seguire questi pilastri implementativi:
|
| 36 |
-
Fase
|
| 37 |
-
Requisito Tecnico
|
| 38 |
-
Allineamento Context-Target
|
| 39 |
-
Il calcolo della probabilità deve ignorare i token del contesto per evitare bias sulla lunghezza della metafora.
|
| 40 |
-
Invarianza della Lunghezza
|
| 41 |
-
Utilizzando la Mean Log-Likelihood (derivata dalla CrossEntropy media), si mitiga il bias per cui frasi più lunghe ricevono naturalmente probabilità totali più basse.
|
| 42 |
-
Stabilità Numerica
|
| 43 |
-
La normalizzazione Softmax deve essere applicata sottraendo il valore massimo dei log-punti ($score - \max(scores)$) per evitare l'overflow computazionale (come implementato nella funzione compute_softmax).
|
| 44 |
-
|
| 45 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|