SimoMzz99 commited on
Commit
488a609
·
verified ·
1 Parent(s): f4c661c

Delete nuovo_logprob_minerva350

Browse files
Files changed (1) hide show
  1. nuovo_logprob_minerva350/README.md +0 -45
nuovo_logprob_minerva350/README.md DELETED
@@ -1,45 +0,0 @@
1
- # Relazione Metodologica: Estrazione di Metriche Probabilistiche per l'Analisi di Interpretazioni Metaforiche
2
- ## 1. Introduzione
3
- Il presente documento descrive il protocollo computazionale utilizzato per valutare quantitativamente le interpretazioni umane di stimoli metaforici attraverso un modello linguistico di grandi dimensioni (LLM). L'obiettivo è misurare il grado di "plausibilità" (o probabilità) che il modello assegna a specifiche interpretazioni fornite dai partecipanti, dato un determinato contesto metaforico.
4
- ## 2. Setup Sperimentale
5
- ### 2.1 Modello e Architettura
6
- È stato utilizzato il modello Minerva-350M-base-v1.0, sviluppato da SapienzaNLP.
7
- Tipo: Decoder-only Causal Language Model.
8
- Specificità: Ottimizzato per la lingua italiana.
9
- Modalità: Valutazione in zero-shot (il modello non ha ricevuto addestramento specifico sulle coppie metafora-interpretazione).
10
- ### 2.2 Dataset e Input
11
- I dati consistono in:
12
- Contesto Metaforico ($$C$$): La frase o il frame frasale che contiene la metafora.
13
- Candidato Interpretazione ($$I$$): L'osservazione testuale fornita dai partecipanti per completare o spiegare il senso della metafora.
14
- ## 3. Metodologia di Scoring
15
- Il nucleo del processo consiste nel calcolare la Log-Likelihood Condizionale. Vogliamo determinare la probabilità che il modello generi l'interpretazione $I$ immediatamente dopo aver "letto" il contesto $C$.
16
- ### 3.1 Elaborazione della Sequenza
17
- Per ogni coppia, viene costruita una sequenza testuale concatenata $$S = [C; I]$$. Per garantire la corretta separazione dei token, viene inserito uno spazio di giunzione tra il contesto e l'interpretazione.
18
- ### 3.2 Calcolo della Log-Likelihood (LL)
19
- Il modello assegna una probabilità a ogni token della sequenza. Tuttavia, per i nostri scopi, siamo interessati esclusivamente alla probabilità dei token che compongono l'interpretazione, condizionata dalla presenza del contesto.
20
- Procedura tecnica:
21
- Si calcola la lunghezza del contesto in termini di token ($$L_C$$).
22
- Si esegue un forward pass del modello sulla sequenza completa.
23
- Si applica una maschera di calcolo sulle etichette (labels): i token appartenenti al contesto $C$ vengono impostati a $-100$ (valore convenzionale per ignorarli nel calcolo della Loss in PyTorch).
24
- La metrica estratta è la Log-Likelihood media per token:
25
- $$LL(I|C) = -\text{CrossEntropy}(I_{L_C \dots L_{total}})$$
26
- In termini intuitivi, un valore di LL più vicino allo zero (es. $-1.5$) indica un'interpretazione che il modello considera molto probabile/naturale; un valore molto negativo (es. $-8.0$) indica un'interpretazione ritenuta improbabile.
27
- ## 4. Normalizzazione e Metriche Finali
28
- Poiché ogni metafora può avere più interpretazioni associate (derivate da diversi partecipanti), i punteggi grezzi vengono normalizzati per permettere un confronto relativo.
29
- ### 4.1 Probability Normalized (Softmax)
30
- Per ogni metafora $m\_id$, i punteggi di log-likelihood ($score_i$) di tutte le interpretazioni associate vengono trasformati in una distribuzione di probabilità tramite la funzione Softmax:
31
-
32
- $$P(I_i) = \frac{e^{score_i}}{\sum_{j=1}^{n} e^{score_j}}$$
33
- Questa metrica risponde alla domanda: "Data questa specifica metafora, quanto è probabile questa interpretazione rispetto alle altre fornite dai partecipanti?"
34
- ## 5. Fondamento Metodologico e Replicabilità
35
- Per replicare l'esperimento, è necessario seguire questi pilastri implementativi:
36
- Fase
37
- Requisito Tecnico
38
- Allineamento Context-Target
39
- Il calcolo della probabilità deve ignorare i token del contesto per evitare bias sulla lunghezza della metafora.
40
- Invarianza della Lunghezza
41
- Utilizzando la Mean Log-Likelihood (derivata dalla CrossEntropy media), si mitiga il bias per cui frasi più lunghe ricevono naturalmente probabilità totali più basse.
42
- Stabilità Numerica
43
- La normalizzazione Softmax deve essere applicata sottraendo il valore massimo dei log-punti ($score - \max(scores)$) per evitare l'overflow computazionale (come implementato nella funzione compute_softmax).
44
-
45
-