Sesgo estadístico

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor numérico del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

En notación matemática, dada una muestra X_1, \dots, X_n\, iid   X y un estimador T(x_1, \dots, x_n)\, del parámetro muestral \theta\,, el sesgo es:

E(T) - \theta\,

El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con ésta es la de la consistencia: un estimador puede tener un sesgo pero el tamaño de éste converge a cero conforme crece el tamaño muestral.

Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores naturales se utilizan otros corregidos para eliminar el sesgo. Así ocurre, por ejemplo, con la varianza muestral.

Fuentes del sesgo en las ciencias experimentales[editar]

En el diseño y elaboración de un estudio de investigación en clínica, puede haber distintos tipos de sesgos:

  • de selección: debido a que los grupos no comparables a causa de cómo se eligieron los pacientes o sujetos.
  • de información: debido a que los grupos no comparables a causa de cómo se obtuvieron los datos.
  • de confusión: debido a una mezcla de efectos debido a una tercera variable (variable de confusión).

Véase también[editar]