Errore alfa

Sinonimi: errore di primo tipo, p value.

L’errore alfa è ciò che si compie quando, a seguito di una verifica sperimentale si conclude che c’è differenza tra gruppi a confronto e invece tale differenza nella realtà non c’è. In altri termini, si incorre nell’errore alfa quando si conclude rifiutando l’ipotesi nulla di uguaglianza (l’ipotesi secondo la quale non vi sono differenze) quando invece è vera. Per convenzione si fissa la probabilità dell’errore alfa al 5%, più raramente all’1% o allo 0.1%.

Rifiutare alla fine di uno studio, l’ipotesi nulla a livello del 5%, o concludere che un confronto è statisticamente significativo a un livello di probabilità (p) di 0,05, equivale a sostenere che il risultato dello studio sia stato ottenuto solo per effetto del caso 1 volta su 20.

Ad esempio, in uno studio sul confronto tra due trattamenti, il test statistico appropriato può fornire un p= 0.02.

Questo significa che la probabilità di sbagliare nel dichiarare che i due gruppi sono diversi (quando invece la differenza è solo casuale) è del 2%. L’errore alfa va considerato particolarmente quando vengono eseguiti molti test di significatività (per es. più variabili di outcome, analisi di sottogruppi o analisi ad interim) poiché, essendo una probabilità di errore, per le regole della probabilità, quante più variabili vengono testate, tanto più è probabile concludere che un effetto sembra più grande di quanto è in realtà. Questo fenomeno prende il nome di: inflazione dell’errore alfa.

È possibile tenerne conto in fase di progettazione dello studio pianificando i confronti a priori o diminuendo la soglia del valore di p per dichiarare la significatività. Nel caso di test multipli o ripetuti, esistono varie procedure per determinare la soglia del valore di p adeguata, la più semplice delle quali è quella di Bonferroni.