elegir una prueba estadística

Este es el capítulo 37 de la primera edición de Bioestadística intuitiva por Harvey Motulsky. Copyright © 1995 por Oxford University Press Inc. El capítulo 45 de la segunda edición de Bioestadística intuitiva es una versión ampliada de este material.

revisión de las pruebas estadísticas disponibles

Este libro ha discutido muchas pruebas estadísticas diferentes. Para seleccionar la prueba correcta, Hágase dos preguntas: ¿qué tipo de datos ha recopilado? ¿Cuál es tu objetivo? Véase el cuadro 37.1.,

predecir el valor de varias variables medidas o binomiales regresión lineal múltiple*
O
regresión no lineal múltiple** regresión logística múltiple* regresión de riesgo proporcional de Cox*

revisión de pruebas no paramétricas

elegir la prueba correcta para comparar mediciones es un poco complicado, ya que debe elegir entre dos familias de pruebas: paramétricas y no paramétricas., La prueba estadística múltiple se basa en la suposición de que los datos se muestrean a partir de una distribución gaussiana. Estas pruebas se conocen como pruebas paramétricas. Las pruebas paramétricas comúnmente utilizadas se enumeran en la primera columna de la tabla e incluyen la prueba t y el análisis de varianza.

Las pruebas que no hacen suposiciones sobre la distribución de la población se conocen como pruebas no paramétricas. Ya has aprendido un poco sobre las pruebas no paramétricas en capítulos anteriores. Todas las pruebas no paramétricas comúnmente utilizadas clasifican la variable de resultado de bajo a alto y luego analizan los rangos., Estas pruebas se enumeran en la segunda columna de la tabla e incluyen las pruebas de Wilcoxon, Mann-Whitney y Kruskal-Wallis. Estas pruebas también se denominan pruebas sin distribución.

elegir entre pruebas paramétricas y no paramétricas: los casos fáciles

elegir entre pruebas paramétricas y no paramétricas a veces es fácil. Definitivamente debe elegir una Prueba paramétrica si está seguro de que sus datos se muestrean de una población que sigue una distribución gaussiana (al menos aproximadamente)., Definitivamente debe seleccionar una prueba no paramétrica en tres situaciones:

  • El resultado es un rango o una puntuación y la población claramente no es Gaussiana. Los ejemplos incluyen el ranking de clase de los estudiantes, la puntuación de Apgar para la salud de los bebés recién nacidos (medida en una escala de 0 a IO y donde todas las puntuaciones son números enteros), la puntuación analógica visual para el dolor (medida en una escala continua donde 0 es sin dolor y 10 es un dolor insoportable), y la escala de estrellas comúnmente utilizada por los críticos de cine y restaurantes (*está bien, ***** es fantástico).,
  • algunos valores están «fuera de la escala», es decir, demasiado altos o demasiado bajos para medirlos. Incluso si la población es Gaussiana, es imposible analizar tales datos con una Prueba paramétrica ya que no se conocen todos los valores. Usar una prueba no paramétrica con estos datos es simple. Asigne valores demasiado bajos para medir un valor arbitrario muy bajo y asigne valores demasiado altos para medir un valor arbitrario muy alto. A continuación, realice una prueba no paramétrica. Dado que la prueba no paramétrica solo conoce los rangos relativos de los valores, no importará que no conociera todos los valores exactamente.,
  • Los datos ire mediciones, y usted está seguro de que la población no se distribuye de una manera Gaussiana. Si los datos no se muestrean de una distribución gaussiana, considere si puede transformar los valores para que la distribución se convierta en Gaussiana. Por ejemplo, puede tomar el logaritmo o recíproco de todos los valores. A menudo hay razones biológicas o químicas (así como estadísticas) para realizar una transformación particular.,

elegir entre pruebas paramétricas y no paramétricas: los casos difíciles

no siempre es fácil decidir si una muestra proviene de una población Gaussiana. Considere estos puntos:

  • si recopila muchos puntos de datos (más de cien), puede mirar la distribución de los datos y será bastante obvio si la distribución tiene aproximadamente forma de campana. Una prueba estadística formal (prueba de Kolmogorov-Smirnoff, no explicada en este libro) puede usarse para probar si la distribución de los datos difiere significativamente de una distribución gaussiana., Con pocos puntos de datos, es difícil decir si los datos son gaussianos por inspección, y la prueba formal tiene poco poder para discriminar entre distribuciones gaussianas y no gaussianas.
  • También debe mirar los datos anteriores. Recuerde, lo que importa es la distribución de la población en general, no la distribución de su muestra. Para decidir si una población es Gaussiana, mire todos los datos disponibles, no solo los datos del experimento actual.
  • considere la fuente de dispersión., Cuando la dispersión proviene de la suma de numerosas fuentes (sin una fuente que contribuya la mayor parte de la dispersión), se espera encontrar una distribución aproximadamente Gaussiana.
  • Cuando hay dudas, algunas personas eligen una Prueba paramétrica (porque no están seguros de que se viole la suposición Gaussiana), y otros eligen una prueba no paramétrica (porque no están seguros de que se cumpla la suposición Gaussiana).

elegir entre pruebas paramétricas y no paramétricas: ¿importa?

¿importa si elige una Prueba paramétrica o no paramétrica? La respuesta depende del tamaño de la muestra., Hay cuatro casos en los que pensar:

  • Muestra grande. ¿Qué sucede cuando se utiliza una Prueba paramétrica con datos de una población no gaussiana? El teorema del límite central (discutido en el Capítulo 5) asegura que las pruebas paramétricas funcionen bien con muestras grandes, incluso si la población no es Gaussiana. En otras palabras, las pruebas paramétricas son robustas a las desviaciones de las distribuciones gaussianas, siempre y cuando las muestras sean grandes. El inconveniente es que es imposible decir cuán grande es lo suficientemente grande, ya que depende de la naturaleza de la distribución particular no Gaussiana., A menos que la distribución de la población sea realmente extraña, probablemente esté seguro de elegir una Prueba paramétrica cuando hay al menos dos docenas de puntos de datos en cada grupo.
  • muestra Grande. ¿Qué sucede cuando se utiliza una prueba no paramétrica con datos de una población Gaussiana? Las pruebas no paramétricas funcionan bien con muestras grandes de poblaciones gaussianas. Los valores de P tienden a ser un poco demasiado grandes, pero la discrepancia es pequeña. En otras palabras, las pruebas no paramétricas son solo un poco menos potentes que las pruebas paramétricas con muestras grandes.
  • muestras Pequeñas., ¿Qué sucede cuando se utiliza una Prueba paramétrica con datos de poblaciones no gaussianas? No se puede confiar en el teorema del límite central, por lo que el valor de P Puede ser inexacto.
  • muestras Pequeñas. Cuando se utiliza una prueba no paramétrica con datos de una población Gaussiana, los valores de P tienden a ser demasiado altos. Las pruebas no paramétricas carecen de potencia estadística con muestras pequeñas.

por lo tanto, los grandes conjuntos de datos no presentan problemas., Por lo general, es fácil saber si los datos provienen de una población Gaussiana, pero en realidad no importa porque las pruebas no paramétricas son tan poderosas y las pruebas paramétricas son tan robustas. Los pequeños conjuntos de datos presentan un dilema. Es difícil saber si los datos provienen de una población Gaussiana, pero importa mucho. Las pruebas no paramétricas no son potentes y las pruebas paramétricas no son robustas.

¿valor P de una o dos caras?

con muchas pruebas, debe elegir si desea calcular un valor de P de uno o dos lados (igual que el valor de P de una o dos colas)., La diferencia entre los valores de P de uno y dos lados se discutió en el Capítulo 10. Repasemos la diferencia en el contexto de una prueba T. El valor de P se calcula para la hipótesis nula de que las dos medias de la población son iguales, y cualquier discrepancia entre las dos medias de la muestra se debe al azar. Si esta hipótesis nula es cierta, el valor de P unilateral es la probabilidad de que dos medias de muestra difieran tanto como se observó (o más) en la dirección especificada por la hipótesis por casualidad, a pesar de que las medias de las poblaciones generales son realmente iguales., El valor de P de dos lados también incluye la probabilidad de que las medias de la muestra difieran mucho en la dirección opuesta (es decir, el otro grupo tiene la media más grande). El valor de P bilateral es dos veces el valor de P unilateral.

un valor de P unilateral es apropiado cuando se puede afirmar con certeza (y antes de recopilar cualquier dato) que no habrá diferencia entre las medias o que la diferencia irá en una dirección que se puede especificar de antemano (es decir, se ha especificado qué grupo tendrá la media más grande)., Si no puede especificar la dirección de ninguna diferencia antes de recopilar datos, entonces un valor p de dos lados es más apropiado. En caso de duda, seleccione un valor p de dos lados.

Si selecciona una prueba unilateral, debe hacerlo antes de recopilar cualquier dato y debe indicar la dirección de su hipótesis experimental. Si los datos van en sentido contrario, debe estar dispuesto a atribuir esa diferencia (o asociación o correlación) al azar, sin importar cuán llamativos sean los datos. Si usted estaría intrigado, incluso un poco, por los datos que van en la dirección «equivocada», entonces usted debe utilizar un valor de P de dos lados., Por las razones discutidas en el Capítulo 10, le recomiendo que siempre calcule un valor de P de dos lados.

¿Prueba emparejada o no emparejada?

al comparar dos grupos, debe decidir si desea usar una prueba emparejada. Cuando se comparan tres o más grupos, el término emparejado no es apto y en su lugar se utiliza el término medidas repetidas.

utilice una prueba no emparejada para comparar grupos cuando los valores individuales no están emparejados o emparejados entre sí., Seleccione una prueba de medidas emparejadas o repetidas cuando los valores representan mediciones repetidas en un sujeto (antes y después de una intervención) o mediciones en sujetos emparejados. Las pruebas de medidas emparejadas o repetidas también son apropiadas para experimentos de laboratorio repetidos que se ejecutan en diferentes momentos, cada uno con su propio control.

debe seleccionar una prueba emparejada cuando los valores de un grupo están más estrechamente correlacionados con un valor específico en el otro grupo que con valores aleatorios en el otro grupo., Solo es apropiado seleccionar una prueba emparejada cuando los sujetos fueron emparejados o emparejados antes de que se recopilaran los datos. No puede basar el emparejamiento en los datos que está analizando.

¿la prueba de FISHER o la prueba de CHI-cuadrado?

al analizar tablas de contingencia con dos filas y dos columnas, puede usar la prueba exacta de Fisher o la prueba chi-cuadrado. La prueba de Fisher es la mejor opción, ya que siempre da el valor p exacto. La prueba de chi-cuadrado es más simple de calcular pero produce solo un valor aproximado de P., Si una computadora está haciendo los cálculos, debe elegir la prueba de Fisher a menos que prefiera la familiaridad de la prueba de chi-cuadrado. Definitivamente debe evitar la prueba de chi-cuadrado cuando los números en la tabla de contingencia son muy pequeños (cualquier número menor que aproximadamente seis). Cuando los números son mayores, los valores de P reportados por el chi-cuadrado y la prueba de Fisher serán muy similares.

la prueba de chi-cuadrado calcula los valores aproximados de P, y la corrección de continuidad de Yates está diseñada para mejorar la aproximación. Sin la corrección de Yates, los valores de P son demasiado bajos., Sin embargo, la corrección va demasiado lejos, y el valor de P resultante es demasiado alto. Los estadísticos dan diferentes recomendaciones con respecto a la corrección de Yates. Con grandes tamaños de muestra, la corrección de Yates hace poca diferencia. Si selecciona la prueba de Fisher, el valor de P es exacto y la corrección de Yates no es necesaria y no está disponible.

¿regresión o correlación?

la regresión lineal y la correlación son similares y se confunden fácilmente. En algunas situaciones tiene sentido realizar ambos cálculos., Calcule la correlación lineal si midió X E Y en cada sujeto y desea cuantificar qué tan bien están asociados. Seleccione el coeficiente de correlación de Pearson (paramétrico) si puede asumir que tanto X como Y se muestrean de poblaciones gaussianas. De lo contrario, elija el coeficiente de correlación no paramétrico de Spearman. No Calcule el coeficiente de correlación (o su intervalo de confianza)si manipuló la variable X.

Calcule las regresiones lineales solo si es probable que una de las variables (X) preceda o cause la otra variable (y)., Definitivamente elegir regresión lineal si se manipula la variable X. Hace una gran diferencia qué variable se llama X Y cuál se llama y, ya que los cálculos de regresión lineal no son simétricos con respecto a X e Y. si intercambias las dos variables, obtendrás una línea de regresión diferente. Por el contrario, los cálculos de correlación lineal son simétricos con respecto a X e Y. si cambia las etiquetas X e Y, todavía obtendrá el mismo coeficiente de correlación.

Author: admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *