wikipedia_passage_concept_A
stringlengths
490
29.6k
concept_A
stringlengths
6
37
wikipedia_passage_concept_B
stringlengths
490
29.6k
concept_B
stringlengths
6
37
target
int64
0
1
L'algoritmo K-means è un algoritmo di clustering partizionale che permette di suddividere un insieme di oggetti in K gruppi sulla base dei loro attributi. È una variante dell'algoritmo di aspettativa-massimizzazione (EM) il cui obiettivo è determinare i K gruppi di dati generati da distribuzioni gaussiane. Si assume c...
K-means
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
Una rete bayesiana (BN, "Bayesian network") è un modello grafico probabilistico che rappresenta un insieme di variabili stocastiche con le loro dipendenze condizionali attraverso l'uso di un grafo aciclico diretto (DAG). Per esempio una rete Bayesiana potrebbe rappresentare la relazione probabilistica esistente tra i ...
Rete bayesiana
L’apprendimento automatico (noto anche come machine learning) è una branca dell'intelligenza artificiale che raccoglie un insieme di metodi, sviluppati a partire dagli ultimi decenni del XX secolo in varie comunità scientifiche, sotto diversi nomi quali: statistica computazionale, riconoscimento di pattern, reti neura...
Apprendimento automatico
1
Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi. Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente. Il metodo con cui si valuta l'attendibilità di un'ipotesi è il...
Test di verifica d'ipotesi
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
0
In statistica, il clustering o analisi dei gruppi (dal termine inglese "cluster analysis" introdotto da Robert Tryon nel 1939) è un insieme di tecniche di analisi multivariata dei dati volte alla selezione e raggruppamento di elementi omogenei in un insieme di dati. Le tecniche di "clustering" si basano su misure rela...
Clustering
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità . Il termine apparve per la prima volta in un'opera di Francis Galton, "Hereditary Genius" (1869). Non fu definita in modo più approfondito (la mora...
Correlazione (statistica)
1
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
Nella terminologia statistica, la variabilità di un carattere X, rilevato su n unità statistiche, è l'attitudine di questo a manifestarsi in diversi modi, ossia con diverse modalità. Quando il carattere è "quantitativo", la variabilità può essere misurata usando indici basati sulla distanza delle modalità rispetto ad ...
Variabilità
0
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese "artificial neural network", abbreviato in ANN o anche come NN) è un modello computazionale composto di "neuroni" artificiali, ispirato vagamente dalla semplificazione di una rete neurale biologica. Questi modelli matematici sono troppo ...
Rete neurale artificiale
0
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), si definisce la mediana (o valore mediano) come il valore/modalità (o l'insieme di valori/modalità) ass...
Mediana (statistica)
0
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare, una rilevazione si dice "campionaria" quando è utile per fa...
Campionamento statistico
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
1
In statistica lo scarto interquartile (o differenza interquartile o ampiezza interquartile, in inglese "interquartile range" o "IQR") è la differenza tra il terzo e il primo quartile, ovvero l'ampiezza della fascia di valori che contiene la metà "centrale" dei valori osservati. Lo scarto interquartile è un indice di d...
Scarto interquartile
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la pos...
Indice di posizione
0
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità . Il termine apparve per la prima volta in un'opera di Francis Galton, "Hereditary Genius" (1869). Non fu definita in modo più approfondito (la mora...
Correlazione (statistica)
In statistica, il clustering o analisi dei gruppi (dal termine inglese "cluster analysis" introdotto da Robert Tryon nel 1939) è un insieme di tecniche di analisi multivariata dei dati volte alla selezione e raggruppamento di elementi omogenei in un insieme di dati. Le tecniche di "clustering" si basano su misure rela...
Clustering
0
In statistica e apprendimento automatico, il clustering gerarchico è un approccio di clustering che mira a costruire una gerarchia di cluster. Le strategie per il clustering gerarchico sono tipicamente di due tipi: Il risultato di un clustering gerarchico è rappresentato in un dendrogramma. Per decidere quali cluster ...
Clustering gerarchico
Il DBSCAN ("Density-Based Spatial Clustering of Applications with Noise") è un metodo di clustering proposto nel 1996 da Martin Ester, Hans-Peter Kriegel, Jörg Sander and Xiaowei Xu. È basato sulla densità perché connette regioni di punti con densità sufficientemente alta. DBSCAN è l'algoritmo più comunemente usato ed...
Dbscan
0
La retropropagazione dell'errore (in lingua inglese "backward propagation of errors", solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. La retropropagaz...
Retropropagazione dell'errore
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1
L'algoritmo K-means è un algoritmo di clustering partizionale che permette di suddividere un insieme di oggetti in K gruppi sulla base dei loro attributi. È una variante dell'algoritmo di aspettativa-massimizzazione (EM) il cui obiettivo è determinare i K gruppi di dati generati da distribuzioni gaussiane. Si assume c...
K-means
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa ...
Teorema di Bayes
In statistica il campionamento casuale corrisponde ad un'estrazione da una popolazione distribuita secondo la sua legge (funzione di densità) di un determinato numero di individui/oggetti. La scelta del campione nel campionamento casuale è affidata al caso e non deve essere influenzata, più o meno consciamente, da chi...
Campionamento casuale
0
Una rete neurale feed-forward ("rete neurale con flusso in avanti") o rete feed-forward è una rete neurale artificiale dove le connessioni tra le unità non formano cicli, differenziandosi dalle reti neurali ricorrenti. Questo tipo di rete neurale fu la prima e più semplice tra quelle messe a punto. In questa rete neur...
Rete neurale feed-forward
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
1
Nell'ambito dell'inferenza statistica bayesiana, una distribuzione di probabilità a priori, detta spesso anche distribuzione a priori, di una quantità incognita "p" (per esempio, supponiamo "p" essere la proporzione di votanti che voteranno per il politico Rossi in un'elezione futura) è la distribuzione di probabilità...
Distribuzione di probabilità a priori
Il principio della minima lunghezza di descrizione (MLD) (in inglese "minimum description length [MDL] principle") è una formalizzazione del Rasoio di Occam nella quale la migliore ipotesi per un determinato insieme di dati è quella che conduce alla migliore compressione dei dati. La MLD fu introdotta da Jorma Rissane...
Minima lunghezza di descrizione
0
In statistica lo scarto interquartile (o differenza interquartile o ampiezza interquartile, in inglese "interquartile range" o "IQR") è la differenza tra il terzo e il primo quartile, ovvero l'ampiezza della fascia di valori che contiene la metà "centrale" dei valori osservati. Lo scarto interquartile è un indice di d...
Scarto interquartile
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), i quartili sono quei valori/modalità che ripartiscono la popolazione in quattro parti di uguale numeros...
Quartile
1
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), si definisce la mediana (o valore mediano) come il valore/modalità (o l'insieme di valori/modalità) ass...
Mediana (statistica)
L'algoritmo K-means è un algoritmo di clustering partizionale che permette di suddividere un insieme di oggetti in K gruppi sulla base dei loro attributi. È una variante dell'algoritmo di aspettativa-massimizzazione (EM) il cui obiettivo è determinare i K gruppi di dati generati da distribuzioni gaussiane. Si assume c...
K-means
0
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
Nell'ambito della scienza dei dati l'analisi dei dati è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali. L'analisi di dati ha molti approcci e sfaccettature, il che comprende te...
Analisi dei dati
0
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese "artificial neural network", abbreviato in ANN o anche come NN) è un modello computazionale composto di "neuroni" artificiali, ispirato vagamente dalla semplificazione di una rete neurale biologica. Questi modelli matematici sono troppo ...
Rete neurale artificiale
In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche "metodo del gradiente", "metodo steepest descent" o "metodo di discesa più ripida") è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. Il metodo è stato sviluppato - e pubblicato ne...
Discesa del gradiente
0
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osser...
Metodo della massima verosimiglianza
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come s...
Probabilità condizionata
1
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
0
è un termine utilizzato in statistica per definire, in un insieme di osservazioni, un valore anomalo e aberrante. Un valore quindi chiaramente distante dalle altre osservazioni disponibili. In statistica viene definito outlier un valore al di fuori dall'intervallo: Dove formula_2 e formula_3 sono rispettivamente prim...
Outlier
Il DBSCAN ("Density-Based Spatial Clustering of Applications with Noise") è un metodo di clustering proposto nel 1996 da Martin Ester, Hans-Peter Kriegel, Jörg Sander and Xiaowei Xu. È basato sulla densità perché connette regioni di punti con densità sufficientemente alta. DBSCAN è l'algoritmo più comunemente usato ed...
Dbscan
0
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata...
Regressione lineare
0
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la pos...
Indice di posizione
Nella terminologia statistica, la variabilità di un carattere X, rilevato su n unità statistiche, è l'attitudine di questo a manifestarsi in diversi modi, ossia con diverse modalità. Quando il carattere è "quantitativo", la variabilità può essere misurata usando indici basati sulla distanza delle modalità rispetto ad ...
Variabilità
0
L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica ...
Apprendimento ensemble
Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato in...
Boosting
0
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
0
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
0
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
0
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare, una rilevazione si dice "campionaria" quando è utile per fa...
Campionamento statistico
0
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa ...
Teorema di Bayes
0
Nell'ambito dell'inferenza statistica bayesiana, una distribuzione di probabilità a priori, detta spesso anche distribuzione a priori, di una quantità incognita "p" (per esempio, supponiamo "p" essere la proporzione di votanti che voteranno per il politico Rossi in un'elezione futura) è la distribuzione di probabilità...
Distribuzione di probabilità a priori
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
0
Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato in...
Boosting
In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche "metodo del gradiente", "metodo steepest descent" o "metodo di discesa più ripida") è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. Il metodo è stato sviluppato - e pubblicato ne...
Discesa del gradiente
0
L’apprendimento automatico (noto anche come machine learning) è una branca dell'intelligenza artificiale che raccoglie un insieme di metodi, sviluppati a partire dagli ultimi decenni del XX secolo in varie comunità scientifiche, sotto diversi nomi quali: statistica computazionale, riconoscimento di pattern, reti neura...
Apprendimento automatico
Una foresta casuale (in inglese: "random forest") è un classificatore d'insieme ottenuto dall'aggregazione tramite bagging di alberi di decisione L'algoritmo per la creazione di una una foresta casuale fu sviluppato orignariamente da Leo Breiman e Adele Cutler. Il nome viene dalle foreste di decisione casuali che furo...
Foresta casuale
0
Il metodo dei minimi quadrati (in inglese OLS: "Ordinary Least Squares") è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano). In particolare...
Metodo dei minimi quadrati
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
1
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la pos...
Indice di posizione
0
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità . Il termine apparve per la prima volta in un'opera di Francis Galton, "Hereditary Genius" (1869). Non fu definita in modo più approfondito (la mora...
Correlazione (statistica)
1
La retropropagazione dell'errore (in lingua inglese "backward propagation of errors", solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. La retropropagaz...
Retropropagazione dell'errore
In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche "metodo del gradiente", "metodo steepest descent" o "metodo di discesa più ripida") è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. Il metodo è stato sviluppato - e pubblicato ne...
Discesa del gradiente
0
In statistica lo scarto interquartile (o differenza interquartile o ampiezza interquartile, in inglese "interquartile range" o "IQR") è la differenza tra il terzo e il primo quartile, ovvero l'ampiezza della fascia di valori che contiene la metà "centrale" dei valori osservati. Lo scarto interquartile è un indice di d...
Scarto interquartile
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
0
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
In statistica, la funzione di verosimiglianza (o funzione di likelihood) è una funzione di probabilità condizionata, considerata come funzione del suo "secondo" argomento, mantenendo fissato il primo argomento. In gergo colloquiale spesso "verosimiglianza" è usato come sinonimo di "probabilità", ma in campo statistico...
Funzione di verosimiglianza
0
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
0
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
L’apprendimento automatico (noto anche come machine learning) è una branca dell'intelligenza artificiale che raccoglie un insieme di metodi, sviluppati a partire dagli ultimi decenni del XX secolo in varie comunità scientifiche, sotto diversi nomi quali: statistica computazionale, riconoscimento di pattern, reti neura...
Apprendimento automatico
0
Un algoritmo genetico è un algoritmo euristico utilizzato per tentare di risolvere problemi di ottimizzazione per i quali non si conoscono altri algoritmi efficienti di complessità lineare o polinomiale. L'aggettivo "genetico", ispirato al principio della selezione naturale ed evoluzione biologica teorizzato nel 1859 ...
Algoritmo genetico
In statistica, il clustering o analisi dei gruppi (dal termine inglese "cluster analysis" introdotto da Robert Tryon nel 1939) è un insieme di tecniche di analisi multivariata dei dati volte alla selezione e raggruppamento di elementi omogenei in un insieme di dati. Le tecniche di "clustering" si basano su misure rela...
Clustering
0
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
L'information retrieval (IR) (in italiano "recupero delle informazioni") è l'insieme delle tecniche utilizzate per gestire la rappresentazione, la memorizzazione, l'organizzazione e l'accesso ad oggetti contenenti informazioni quali documenti, pagine web, cataloghi online e oggetti multimediali. Il termine è stato con...
Information retrieval
1
Nell'ambito dell'Intelligenza artificiale, la matrice di confusione, detta anche tabella di errata classificazione, restituisce una rappresentazione dell'accuratezza di classificazione statistica. Ogni colonna della matrice rappresenta i valori predetti, mentre ogni riga rappresenta i valori reali. L'elemento sulla ri...
Matrice di confusione
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
0
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata...
Regressione lineare
variabili aleatorie "X" e "Y", la distribuzione condizionata di Y dato X è la probabilità di Y quando è conosciuto il valore assunto da X. A ogni distribuzione condizionata è associato un valore atteso condizionato e una varianza condizionata. Nel caso di variabili aletorie discrete, la distribuzione condizionata di "...
Distribuzione condizionata
0
Il test t (o, dall'inglese, t-test) è un test statistico di tipo parametrico con lo scopo di verificare se il valore medio di una distribuzione si discosta significativamente da un certo valore di riferimento. Differisce dal test z per il fatto che la varianza formula_1 è sconosciuta. Se la varianza della popolazione ...
Test t
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Le macchine a vettori di supporto (SVM, dall'inglese "Support-Vector Machines") sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento (training set), ognuno dei quali etichettato con la classe di a...
Macchine a vettori di supporto
La nozione di iperpiano è nata in geometria come generalizzazione della nozione di piano e successivamente ha avuto una riformulazione nella combinatoria, più precisamente nella teoria delle matroidi. Si tratta essenzialmente di un sottospazio lineare di dimensione inferiore di uno ("n" − 1) rispetto allo spazio in cu...
Iperpiano
1
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese "artificial neural network", abbreviato in ANN o anche come NN) è un modello computazionale composto di "neuroni" artificiali, ispirato vagamente dalla semplificazione di una rete neurale biologica. Questi modelli matematici sono troppo ...
Rete neurale artificiale
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
Una foresta casuale (in inglese: "random forest") è un classificatore d'insieme ottenuto dall'aggregazione tramite bagging di alberi di decisione L'algoritmo per la creazione di una una foresta casuale fu sviluppato orignariamente da Leo Breiman e Adele Cutler. Il nome viene dalle foreste di decisione casuali che furo...
Foresta casuale
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
1
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
Nell'ambito della scienza dei dati l'analisi dei dati è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali. L'analisi di dati ha molti approcci e sfaccettature, il che comprende te...
Analisi dei dati
1
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se formula_1 e f...
Intervallo di confidenza
1
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
1
Una rete neurale feed-forward ("rete neurale con flusso in avanti") o rete feed-forward è una rete neurale artificiale dove le connessioni tra le unità non formano cicli, differenziandosi dalle reti neurali ricorrenti. Questo tipo di rete neurale fu la prima e più semplice tra quelle messe a punto. In questa rete neur...
Rete neurale feed-forward
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi. Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente. Il metodo con cui si valuta l'attendibilità di un'ipotesi è il...
Test di verifica d'ipotesi
statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se formula_1 e f...
Intervallo di confidenza
1
Una foresta casuale (in inglese: "random forest") è un classificatore d'insieme ottenuto dall'aggregazione tramite bagging di alberi di decisione L'algoritmo per la creazione di una una foresta casuale fu sviluppato orignariamente da Leo Breiman e Adele Cutler. Il nome viene dalle foreste di decisione casuali che furo...
Foresta casuale
L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica ...
Apprendimento ensemble
1
In statistica e apprendimento automatico, il clustering gerarchico è un approccio di clustering che mira a costruire una gerarchia di cluster. Le strategie per il clustering gerarchico sono tipicamente di due tipi: Il risultato di un clustering gerarchico è rappresentato in un dendrogramma. Per decidere quali cluster ...
Clustering gerarchico
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità . Il termine apparve per la prima volta in un'opera di Francis Galton, "Hereditary Genius" (1869). Non fu definita in modo più approfondito (la mora...
Correlazione (statistica)
1
è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di n oggetti e un numero k che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medi...
K-medoids
Nell'ambito della scienza dei dati l'analisi dei dati è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali. L'analisi di dati ha molti approcci e sfaccettature, il che comprende te...
Analisi dei dati
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se formula_1 e f...
Intervallo di confidenza
1
L’apprendimento automatico (noto anche come machine learning) è una branca dell'intelligenza artificiale che raccoglie un insieme di metodi, sviluppati a partire dagli ultimi decenni del XX secolo in varie comunità scientifiche, sotto diversi nomi quali: statistica computazionale, riconoscimento di pattern, reti neura...
Apprendimento automatico
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1
Nella teoria delle decisioni (per esempio nella gestione dei rischi), un albero di decisione è un grafo di decisioni e delle loro possibili conseguenze, (incluso i relativi costi, risorse e rischi) utilizzato per creare un 'piano di azioni' ("plan") mirato ad uno scopo ("goal"). Un albero di decisione è costruito al f...
Albero di decisione
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come s...
Probabilità condizionata
1
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare, una rilevazione si dice "campionaria" quando è utile per fa...
Campionamento statistico
1
Una foresta casuale (in inglese: "random forest") è un classificatore d'insieme ottenuto dall'aggregazione tramite bagging di alberi di decisione L'algoritmo per la creazione di una una foresta casuale fu sviluppato orignariamente da Leo Breiman e Adele Cutler. Il nome viene dalle foreste di decisione casuali che furo...
Foresta casuale
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1
è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di n oggetti e un numero k che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medi...
K-medoids
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità . Il termine apparve per la prima volta in un'opera di Francis Galton, "Hereditary Genius" (1869). Non fu definita in modo più approfondito (la mora...
Correlazione (statistica)
1
L'analisi delle componenti principali (in inglese "principal component analysis" o abbreviata "PCA"), anche nota come trasformata di Karhunen-Loève, trasformata di Hotelling o decomposizione ortogonale propria, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo m...
Analisi delle componenti principali
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
1
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata...
Regressione lineare
L'analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un'eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell'"equazione...
Analisi della regressione
1
è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di n oggetti e un numero k che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medi...
K-medoids
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
Una rete neurale feed-forward ("rete neurale con flusso in avanti") o rete feed-forward è una rete neurale artificiale dove le connessioni tra le unità non formano cicli, differenziandosi dalle reti neurali ricorrenti. Questo tipo di rete neurale fu la prima e più semplice tra quelle messe a punto. In questa rete neur...
Rete neurale feed-forward
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
Nel data mining, le regole di associazione sono uno dei metodi per estrarre relazioni nascoste tra i dati. Agrawal et al. introdussero le regole di associazione per la scoperta di regolarità all'interno delle transazioni registrate nelle vendite dei supermercati. Per esempio, la regola formula_1 individuata nell'anali...
Regole di associazione
1
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
1
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
variabili aleatorie "X" e "Y", la distribuzione condizionata di Y dato X è la probabilità di Y quando è conosciuto il valore assunto da X. A ogni distribuzione condizionata è associato un valore atteso condizionato e una varianza condizionata. Nel caso di variabili aletorie discrete, la distribuzione condizionata di "...
Distribuzione condizionata
1
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
1
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
1
Una rete bayesiana (BN, "Bayesian network") è un modello grafico probabilistico che rappresenta un insieme di variabili stocastiche con le loro dipendenze condizionali attraverso l'uso di un grafo aciclico diretto (DAG). Per esempio una rete Bayesiana potrebbe rappresentare la relazione probabilistica esistente tra i ...
Rete bayesiana
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione ...
Probabilità a posteriori
1
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osser...
Metodo della massima verosimiglianza
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare, una rilevazione si dice "campionaria" quando è utile per fa...
Campionamento statistico
1
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa ...
Teorema di Bayes
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
In statistica, la regressione di Poisson è una forma di modello lineare generalizzato di analisi di regressione usato per modellare il conteggio dei dati in tabelle contingenti. La regressione di Poisson assume che la variabile di risposta Y ha una distribuzione di Poisson, e assume che il logaritmo del suo valore asp...
Regressione di Poisson
variabili aleatorie "X" e "Y", la distribuzione condizionata di Y dato X è la probabilità di Y quando è conosciuto il valore assunto da X. A ogni distribuzione condizionata è associato un valore atteso condizionato e una varianza condizionata. Nel caso di variabili aletorie discrete, la distribuzione condizionata di "...
Distribuzione condizionata
1
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa ...
Teorema di Bayes
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come s...
Probabilità condizionata
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come s...
Probabilità condizionata
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
La classificazione statistica è quell'attività che si serve di un algoritmo statistico al fine di individuare una rappresentazione di alcune caratteristiche di un'entità da classificare (oggetto o nozione), associandole una etichetta classificatoria. Tale attività può essere svolta mediante algoritmi di apprendimento ...
Classificazione statistica
1
Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato in...
Boosting
L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica ...
Apprendimento ensemble
1
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico...
Data mining
In statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), sta alla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi. In particolare, una rilevazione si dice "campionaria" quando è utile per fa...
Campionamento statistico
1
In statistica la significatività è la possibilità rilevante che compaia un determinato valore. Ci si riferisce anche come "statisticamente differente da zero"; ciò non significa che la "significatività" sia rilevante, o vasta, come indurrebbe a pensare la parola. Ma solo che è diversa dal numero limite. Il livello di ...
Significatività
Un'ipotesi nulla (in inglese "null hypothesis," che significa letteralmente ipotesi zero) è un'affermazione sulla distribuzione di probabilità di una o più variabili casuali. Si intende per ipotesi nulla l'affermazione secondo la quale non ci sia differenza oppure non vi sia relazione tra due fenomeni misurati, o asso...
Ipotesi nulla
1
In statistica lo scarto interquartile (o differenza interquartile o ampiezza interquartile, in inglese "interquartile range" o "IQR") è la differenza tra il terzo e il primo quartile, ovvero l'ampiezza della fascia di valori che contiene la metà "centrale" dei valori osservati. Lo scarto interquartile è un indice di d...
Scarto interquartile
La statistica descrittiva è la branca della statistica che studia i criteri di rilevazione, classificazione, sintesi e rappresentazione dei dati appresi dallo studio di una popolazione o di una parte di essa (detta campione). I risultati ottenuti nell'ambito della statistica descrittiva si possono definire certi, a me...
Statistica descrittiva
1
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osser...
Metodo della massima verosimiglianza
In statistica, la funzione di verosimiglianza (o funzione di likelihood) è una funzione di probabilità condizionata, considerata come funzione del suo "secondo" argomento, mantenendo fissato il primo argomento. In gergo colloquiale spesso "verosimiglianza" è usato come sinonimo di "probabilità", ma in campo statistico...
Funzione di verosimiglianza
1
Il test t (o, dall'inglese, t-test) è un test statistico di tipo parametrico con lo scopo di verificare se il valore medio di una distribuzione si discosta significativamente da un certo valore di riferimento. Differisce dal test z per il fatto che la varianza formula_1 è sconosciuta. Se la varianza della popolazione ...
Test t
In statistica per popolazione (o collettivo statistico o aggregato) si intende l'insieme degli elementi che sono oggetto di studio, ovvero l'insieme delle unità (dette "unità statistiche") sulle quali viene effettuata la rilevazione delle modalità con le quali il fenomeno studiato si presenta. Tali unità presentano tu...
Popolazione statistica
1
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
In matematica, una funzione di densità di probabilità (o PDF dall'inglese "probability density function") è l'analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale formula_1 sia continua, cioè l'insieme dei possibili valori che ha la potenza del continuo. Essa descrive la ...
Funzione di densità di probabilità
1
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la pos...
Indice di posizione
In statistica, la moda (o norma) di una distribuzione di frequenza X è la modalità (o la classe di modalità) caratterizzata dalla massima frequenza e viene spesso rappresentata con la simbologia ν. In altre parole, è il valore che compare più frequentemente. Una distribuzione è "unimodale" se ammette un solo valore mo...
Moda (statistica)
1
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la pos...
Indice di posizione
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), si definisce la mediana (o valore mediano) come il valore/modalità (o l'insieme di valori/modalità) ass...
Mediana (statistica)
1
Nell'analisi statistica della classificazione binaria, lF score (nota anche come F-score o F-measure, letteralmente "misura F") è una misura dell'accuratezza di un test. La misura tiene in considerazione precisione e recupero del test, dove la precisione è il numero di veri positivi diviso il numero di tutti i risulta...
F1 score
L'information retrieval (IR) (in italiano "recupero delle informazioni") è l'insieme delle tecniche utilizzate per gestire la rappresentazione, la memorizzazione, l'organizzazione e l'accesso ad oggetti contenenti informazioni quali documenti, pagine web, cataloghi online e oggetti multimediali. Il termine è stato con...
Information retrieval
1
In statistica, la funzione di verosimiglianza (o funzione di likelihood) è una funzione di probabilità condizionata, considerata come funzione del suo "secondo" argomento, mantenendo fissato il primo argomento. In gergo colloquiale spesso "verosimiglianza" è usato come sinonimo di "probabilità", ma in campo statistico...
Funzione di verosimiglianza
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come s...
Probabilità condizionata
1
In statistica e apprendimento automatico, il clustering gerarchico è un approccio di clustering che mira a costruire una gerarchia di cluster. Le strategie per il clustering gerarchico sono tipicamente di due tipi: Il risultato di un clustering gerarchico è rappresentato in un dendrogramma. Per decidere quali cluster ...
Clustering gerarchico
Lo scarto quadratico medio (o deviazione standard o scarto tipo) è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. È uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale può essere, ad esempio, la...
Scarto quadratico medio
1
, o richiamo (in inglese "precision" e "recall") sono due comuni classificazioni statistiche, utilizzate in diversi ambiti del sapere, come per es. l'information retrieval. La precisione può essere vista come una misura di "esattezza" o fedeltà, mentre il recupero è una misura di "completezza". Nell'Information Retrie...
Precisione e recupero
statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se formula_1 e f...
Intervallo di confidenza
1
Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato in...
Boosting
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si...
Distribuzione congiunta
1