¿Qué son los errores alfa y beta? ¿Qué representan el valor de p y el poder de un test?
Repasemos los conceptos de la entrega anterior y consideremos ahora lo siguiente: la diferencia entre 2 valores cuya existencia buscamos demostrar puede ser real o no. ¿Es la creatinina de 1.35 mg% del ejemplo anterior “verdaderamente diferente” de la de 1.18 mg%? ¿Corresponden realmente estos valores a 2 poblaciones diferentes? Y nos hacemos esta pregunta más allá del resultado del test. Hablamos de la realidad, no de lo que arroja la prueba estadística. Es claro que si consideramos la realidad por un lado y el resultado del test por otro, cuatro situaciones son posibles.
Hay una diferencia real y el test la detecta, al rechazar la hipótesis nula. En ese caso el resultado del test es un verdadero positivo.
b) La diferencia no es real, ambos valores corresponden a la misma distribución de probabilidades, pero el test estadístico rechaza la hipótesis nula y plantea la existencia de una diferencia estadísticamente significativa. Esto puede suceder, porque recordemos que el valor de p que consideramos para rechazar la hipótesis de nulidad es arbitrario, convencional. Si asumimos un valor de p de 0.05, 5 de cada 100 veces que digamos que un valor determinado corresponde a otra distribución y no a la de referencia nos estaremos equivocando. E incluso, si consideramos un valor de p de 0.01 como valor discriminante, asumiremos que en 1% de los casos podremos dar por válida una diferencia que en realidad se debe al azar. Estamos hablando entonces de una posibilidad del 5% (con un valor de p de 0.05) o del 1% (con un valor de p de 0.01) de un resultado falso positivo al rechazar la hipótesis nula.
A este resultado erróneo lo denominamos error alfa o error tipo I. Si la tasa de resultados falsos positivos del test es de 5%, su especificidad, o tasa de verdaderos positivos es del 95%: 1-error alfa representa la especificidad del test. Cuanto menor el valor del error alfa, más específico el test, menor la probabilidad de que encontrada una diferencia la misma sea en realidad debida al azar.
c) La diferencia no existe, ambos valores pertenecen a la misma distribución, y el test por su parte no rechaza la hipótesis nula. Este caso es el de un verdadero negativo; no hay diferencia y el resultado del test coincide con la realidad.
d) Hay una diferencia real, pero el test no la detecta, no alcanza a rechazar la hipótesis nula. No llega a considerar al valor en discusión en área de rechazo. Hablamos entonces de un resultado falso negativo, y entendemos que se ha producido un error beta o tipo II. Si consideramos 1- error beta obtenemos la potencia o poder del test, que representa la sensibilidad del mismo, su capacidad para encontrar una diferencia real. Así como habitualmente se admite un error alfa de 0.05 o 0.01, el error beta que se define a priori en una comparación puede ser de 0.10 (si se busca una sensibilidad de 90%) o 0.20 (si se admite una sensibilidad del 80%).
Dr. Jorge Thierer