Diferencia entre revisiones de «Sesgo estadístico»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 2.138.164.217 (disc.) a la última edición de Balles2601
Sin resumen de edición
Línea 3: Línea 3:
En [[estadística]] se llama '''sesgo''' de un [[estimador]] a la diferencia entre su [[esperanza matemática]] y el [[valor numérico]] del parámetro que estima. Un estimador cuyo sesgo es nulo se llama ''insesgado'' o ''centrado''.
En [[estadística]] se llama '''sesgo''' de un [[estimador]] a la diferencia entre su [[esperanza matemática]] y el [[valor numérico]] del parámetro que estima. Un estimador cuyo sesgo es nulo se llama ''insesgado'' o ''centrado''.


En notación matemática, dada una [[muestra (estadística)|muestra]] <math>X_1, \dots, X_n\, iid X </math> y un estimador <math>T(x_1, \dots, x_n)\,</math> del parámetro poblacional <math>\theta\,</math>, el sesgo es:
En notación matemática, dada una [[muestra (estadística)|muestra]] <math>X_1, \dots, X_n\, iid X </math> y un estimador <math>T(x_1, \dots, x_n)\,</math> del parámetro poblacional <math>\theta\,
{{ecuación|
<math>E(T) - \theta\,</math>
||left}}
||left}}
El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con esta es la de la [[consistencia (estadística)|consistencia]]: un estimador puede tener un sesgo pero el tamaño de este converge a cero conforme crece el tamaño muestral.
El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con esta es la de la [[consistencia (estadística)|consistencia]]: un estimador puede tener un sesgo pero el tamaño de este converge a cero conforme crece el tamaño muestral.


Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores ''naturales'' se utilizan otros corregidos para eliminar el sesgo. Así ocurre, por ejemplo, con la [[varianza|varianza muestral]].
Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores ''naturales'' se utilizan otros corregidos para eliminar el sesgo. Así ocurre, por ej

== Fuentes del sesgo en las ciencias experimentales ==

En el diseño y elaboración de un estudio de investigación en clínica, puede haber distintos tipos de sesgos:
En el diseño y elaboración de un estudio de investigación en clínica, puede haber distintos tipos de sesgos:



Revisión del 11:40 13 oct 2017

En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor numérico del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

En notación matemática, dada una muestra y un estimador del parámetro poblacional <math>\theta\, ||left}} El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con esta es la de la consistencia: un estimador puede tener un sesgo pero el tamaño de este converge a cero conforme crece el tamaño muestral.

Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores naturales se utilizan otros corregidos para eliminar el sesgo. Así ocurre, por ej En el diseño y elaboración de un estudio de investigación en clínica, puede haber distintos tipos de sesgos:

  • de selección: debido a que los grupos no son comparables a causa de cómo se eligieron los pacientes o sujetos.
  • de información: debido a que los grupos no son comparables a causa de cómo se obtuvieron los datos.
  • de confusión: debido a una mezcla de efectos debido a una tercera variable (variable de confusión).

Véase también