Desviación estándar versus error estándar: ¿Cuál es la diferencia?

Dos términos que los estudiantes a menudo confunden en estadística son desviación estándar y error estándar .

La desviación estándar mide qué tan dispersos están los valores en un conjunto de datos.

El error estándar es la desviación estándar de la media en muestras repetidas de una población.

Veamos un ejemplo para ilustrar claramente esta idea.

Ejemplo: desviación estándar frente a error estándar

Supongamos que medimos el peso de 10 tortugas diferentes.

Para esta muestra de 10 tortugas, podemos calcular la media muestral y la desviación estándar muestral:

Suponga que la desviación estándar resulta ser 8,68. Esto nos da una idea de cuán distribuidos están los pesos de estas tortugas.

Pero supongamos que recolectamos otra muestra aleatoria simple de 10 tortugas y también tomamos sus medidas. Lo más probable es que esta muestra de 10 tortugas tenga una media y una desviación estándar ligeramente diferentes, incluso si se toman de la misma población:

Ahora, si imaginamos que tomamos muestras repetidas de la misma población y registramos la media muestral y la desviación estándar muestral para cada muestra:

Ahora imagine que graficamos cada una de las medias muestrales en la misma línea:

La desviación estándar de estas medias se conoce como error estándar.

La fórmula para calcular realmente el error estándar es:

Error estándar = s / √n

dónde:

  • s: desviación estándar de la muestra
  • n: tamaño de la muestra

¿Cuál es el punto de usar el error estándar?

Cuando calculamos la media de una muestra determinada, en realidad no nos interesa conocer la media de esa muestra en particular, sino la media de la población más grande de la que proviene la muestra.

Sin embargo, utilizamos muestras porque son mucho más fáciles de recopilar datos en comparación con una población completa. Y, por supuesto, la media de la muestra variará de una muestra a otra, por lo que utilizamos el error estándar de la media como una forma de medir qué tan precisa es nuestra estimación de la media.

Observará en la fórmula para calcular el error estándar que a medida que aumenta el tamaño de la muestra (n), el error estándar disminuye:

Error estándar = s / √n

Esto debería tener sentido ya que los tamaños de muestra más grandes reducen la variabilidad y aumentan la posibilidad de que la media de nuestra muestra esté más cerca de la media de la población real.

Cuándo utilizar la desviación estándar frente al error estándar

Si simplemente estamos interesados ​​en medir qué tan dispersos están los valores en un conjunto de datos, podemos usar la desviación estándar .

Sin embargo, si estamos interesados ​​en cuantificar la incertidumbre en torno a una estimación de la media, podemos usar el error estándar de la media .

Dependiendo de su escenario específico y de lo que esté tratando de lograr, puede optar por utilizar la desviación estándar o el error estándar.

  • https://r-project.org
  • https://www.python.org/
  • https://www.stata.com/

Deja un comentario

A menudo, en estadística usamos intervalos de confianza para estimar el valor de un parámetro de población con un cierto…
statologos comunidad-2

Compartimos información EXCLUSIVA y GRATUITA solo para suscriptores (cursos privados, programas, consejos y mucho más)

You have Successfully Subscribed!