Tamaño del efecto: qué es y por qué es importante

“La importancia estadística es lo menos interesante de los resultados. Debe describir los resultados en términos de medidas de magnitud, no solo si un tratamiento afecta a las personas, sino cuánto las afecta «. -Gene V.Vidrio

En estadística, a menudo usamos valores p para determinar si hay una diferencia estadísticamente significativa entre dos grupos.

Por ejemplo, supongamos que queremos saber si dos técnicas de estudio diferentes conducen a puntajes de prueba diferentes. Entonces, tenemos un grupo de 20 estudiantes que usa una técnica de estudio para prepararse para una prueba, mientras que otro grupo de 20 estudiantes usa una técnica de estudio diferente. Luego hacemos que cada estudiante tome la misma prueba.

Después de ejecutar una prueba t de dos muestras para una diferencia en las medias, encontramos que el valor p de la prueba es 0.001. Si usamos un nivel de significancia de 0.05, esto significa que hay una diferencia estadísticamente significativa entre las puntuaciones medias de las pruebas de los dos grupos. Por lo tanto, estudiar la técnica tiene un impacto en los puntajes de las pruebas.

Sin embargo, aunque el valor p nos dice que estudiar la técnica tiene un impacto en los puntajes de las pruebas, no nos dice el tamaño del impacto. Para entender esto, necesitamos conocer el tamaño del efecto .

¿Qué es el tamaño del efecto?

El tamaño del efecto es una forma de cuantificar la diferencia entre dos grupos.

Si bien un valor p puede decirnos si existe o no una diferencia estadísticamente significativa entre dos grupos, el tamaño del efecto puede decirnos qué tan grande es realmente esta diferencia. En la práctica, los tamaños del efecto son mucho más interesantes y útiles de conocer que los valores p.

Hay tres formas de medir el tamaño del efecto, según el tipo de análisis que esté realizando:

1. Diferencia de medias estandarizada

Cuando esté interesado en estudiar la diferencia media entre dos grupos, la forma adecuada de calcular el tamaño del efecto es mediante una diferencia media estandarizada . La fórmula más popular para usar se conoce como d de Cohen , que se calcula como:

D de Cohen = ( x 1x 2 ) / s

donde x 1 y x 2 son las medias muestrales del grupo 1 y del grupo 2, respectivamente, y s es la desviación estándar de la población de la que se tomaron los dos grupos.

Usando esta fórmula, el tamaño del efecto es fácil de interpretar:

  • Una d de 1 indica que las medias de los dos grupos difieren en una desviación estándar.
  • Una d de 2 significa que las medias del grupo difieren en dos desviaciones estándar.
  • Una d de 2.5 indica que las dos medias difieren en 2.5 desviaciones estándar, y así sucesivamente.

Otra forma de interpretar el tamaño del efecto es la siguiente: Un tamaño del efecto de 0.3 significa que la puntuación de la persona promedio en el grupo 2 es 0.3 desviaciones estándar por encima de la persona promedio en el grupo 1 y, por lo tanto, excede las puntuaciones del 62% de las del grupo 1. .

La siguiente tabla muestra varios tamaños de efecto y sus correspondientes percentiles:

Tamaño del efecto Porcentaje del Grupo 2 que estaría por debajo del promedio de la persona en el Grupo 1
0.0 50%
0,2 58%
0.4 66%
0,6 73%
0,8 79%
1.0 84%
1.2 88%
1.4 92%
1,6 95%
1.8 96%
2.0 98%
2.5 99%
3,0 99,9%

Cuanto mayor sea el tamaño del efecto, mayor será la diferencia entre el individuo promedio en cada grupo.

En general, una d de 0,2 o menor se considera un tamaño de efecto pequeño, una d de alrededor de 0,5 se considera un tamaño de efecto medio y una d de 0,8 o mayor se considera un tamaño de efecto grande.

Por lo tanto, si las medias de dos grupos no difieren en al menos 0,2 desviaciones estándar, la diferencia es trivial, incluso si el valor p es estadísticamente significativo.

2. Coeficiente de correlación

Cuando esté interesado en estudiar la relación cuantitativa entre dos variables, la forma más popular de calcular el tamaño del efecto es mediante el coeficiente de correlación de Pearson . Esta es una medida de la asociación lineal entre dos variables X e Y. Tiene un valor entre -1 y 1 donde:

  • -1 indica una correlación lineal perfectamente negativa entre dos variables
  • 0 indica que no hay correlación lineal entre dos variables
  • 1 indica una correlación lineal perfectamente positiva entre dos variables

La fórmula para calcular el coeficiente de correlación de Pearson es bastante compleja, pero se puede encontrar aquí para aquellos que estén interesados.

Cuanto más lejos esté el coeficiente de correlación de cero, más fuerte será la relación lineal entre dos variables. Esto también se puede ver mediante la creación de un diagrama de dispersión simple de los valores para las variables X y Y .

Por ejemplo, la siguiente gráfica de dispersión muestra los valores de dos variables que tienen un coeficiente de correlación de r = 0,94.

Este valor está lejos de cero, lo que indica que existe una fuerte relación positiva entre las dos variables.

Por el contrario, la siguiente gráfica de dispersión muestra los valores de dos variables que tienen un coeficiente de correlación de r = 0.03. Este valor es cercano a cero, lo que indica que prácticamente no existe relación entre las dos variables.

En general, se considera que el tamaño del efecto es bajo si el valor del coeficiente de correlación de Pearson r es de alrededor de 0,1, medio si r es de alrededor de 0,3 y grande si r es de 0,5 o mayor.

3. Razón de probabilidades

Cuando está interesado en estudiar las probabilidades de éxito en un grupo de tratamiento en relación con las probabilidades de éxito en un grupo de control, la forma más popular de calcular el tamaño del efecto es a través de la razón de probabilidades .

Por ejemplo, supongamos que tenemos la siguiente tabla:

Tamaño del efecto # Éxitos # Fallos
Grupo de tratamiento A B
Grupo de control C D

La razón de posibilidades se calcularía como:

Razón de probabilidades = (AD) / (BC)

Cuanto más lejos esté la razón de posibilidades de 1, mayor será la probabilidad de que el tratamiento tenga un efecto real.

Las ventajas de usar tamaños de efecto sobre valores p

Los tamaños del efecto tienen varias ventajas sobre los valores p:

1. El tamaño del efecto nos ayuda a tener una mejor idea de qué tan grande es la diferencia entre dos grupos o qué tan fuerte es la asociación entre dos grupos. Un valor de p sólo nos puede decir si hay o no es alguna diferencia significativa o alguna asociación significativa.

2. A diferencia de los valores p, los tamaños del efecto se pueden utilizar para comparar cuantitativamente los resultados de diferentes estudios realizados en diferentes contextos. Por esta razón, los tamaños del efecto se utilizan a menudo en los metanálisis.

3. Los valores p pueden verse afectados por tamaños de muestra grandes. Cuanto mayor sea el tamaño de la muestra, mayor será el poder estadístico de una prueba de hipótesis, lo que le permite detectar incluso efectos pequeños. Esto puede conducir a valores p bajos, a pesar de los tamaños de efecto pequeños que pueden no tener importancia práctica.

Un ejemplo simple puede aclarar esto: Supongamos que queremos saber si dos técnicas de estudio conducen a diferentes puntajes en las pruebas. Tenemos un grupo de 20 estudiantes que usa una técnica de estudio mientras que otro grupo de 20 estudiantes usa una técnica de estudio diferente. Luego hacemos que cada estudiante tome la misma prueba.

La puntuación media para el grupo 1 es 90,65 y la puntuación media para el grupo 2 es 90,75 . La desviación estándar de la muestra 1 es 2,77 y la desviación estándar de la muestra 2 es 2,78 .

Cuando realizamos una prueba t independiente de dos muestras, resulta que el estadístico de la prueba es -0,113 y el valor p correspondiente es 0,91 . La diferencia entre las puntuaciones medias de las pruebas no es estadísticamente significativa.

Sin embargo, considere si los tamaños de muestra de las dos muestras eran ambos 200 , sin embargo, las medias y las desviaciones estándar permanecieron exactamente iguales.

En este caso, una prueba t independiente de dos muestras revelaría que el estadístico de la prueba es -1,97 y el valor p correspondiente es un poco menos de 0,05 . La diferencia entre las puntuaciones medias de las pruebas es estadísticamente significativa.

La razón subyacente por la que los tamaños de muestra grandes pueden llevar a conclusiones estadísticamente significativas se debe a la fórmula utilizada para calcular las estadísticas de prueba t :

estadístico de prueba t = [( x 1x 2 ) – d] / (√ s 2 1 / n 1 + s 2 2 / n 2 )

Observe que cuando n 1 y n 2 son pequeños, todo el denominador del estadístico de prueba t es pequeño. Y cuando dividimos por un número pequeño, terminamos con un número grande. Esto significa que el estadístico de prueba t será grande y el valor p correspondiente será pequeño, lo que conducirá a resultados estadísticamente significativos.

  • https://r-project.org
  • https://www.python.org/
  • https://www.stata.com/

Deja un comentario

Puede usar la biblioteca de visualización de R ggplot2 para trazar un modelo de regresión lineal ajustado usando la siguiente…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!