Error humano

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Paso de cebra mal pintado en Godella (España).
El mismo paso de cebra con el error en proceso de rectificación.

E​rror humano es una expresión que indica que un suceso desfavorable está fuertemente condicionado por la actividad de las personas que participan directa o indirectamente en la realización y control de un proceso, a veces se puede atribuir a una mala praxis de las personas implicadas. Ha sido citado como una causa o factor influyente en catástrofes y accidentes en industrias tan diversas como: centrales nucleares (accidente de Chernóbil), aviación (error del piloto), exploración espacial (accidente del transbordador espacial Challenger), medicina (error médico), construcción (Puente del Milenio).

Categorías del error humano[editar]

Hay muchas maneras de catalogar el error humano:

  • Exógeno VS endógeno (originando desde fuera VS desde dentro del individuo).
  • Asesoramiento en una situación VS planificar una respuesta y distinciones relacionadas en:
  1. Errores en la detección del problema.
  2. Errores en el diagnóstico del problema.
  3. Errores en la planificación y ejecución.
  • Por nivel de análisis, por ejemplo, a través de percepciones (por ejemplo ilusiones ópticas) VS cognitivo VS comunicación VS organización.

El estudio cognitivo del error humano es un campo de investigación muy activo, incluyendo tareas relacionadas con el límite de la memoria y atención así como estrategias de toma de decisiones. Estas estrategias pueden ser útiles y correctos, pero pueden inducir a pautas de error sistemáticas.

Análisis y sistemas de clasificación de los factores humanos[editar]

Los análisis y sistemas de clasificación de los factores humanos fueron desarrollados inicialmente como un esquema para entender el error humano como una causa (motivo) de los accidentes de aviación (Shappell and Wiegmann, 2000; Wiegmann and Shappell, 2003). Está basado en los razonamientos del error humano en sistemas complejos (Jeames Reason Swiss cheese modelo ). Los análisis y sistemas de clasificación de los factores humanos distinguen entre los "errores activos" de actos inseguros y los "errores latentes" de precondiciones para actos inseguros, supervisión insegura y algunas influencias de organización. Estas categorías fueron desarrolladas empíricamente basándose en diversos informes de accidentes de aviación.

Los actos inseguros fueron llevados a cabo por un operador humano "en la línea frontal" (por ejemplo: el piloto, el controlador aéreo, el conductor ...). Los actos inseguros pueden ser por errores (por ejemplo decisiones tomadas) o bien por violaciones (rutinarias o excepcionales). Los errores aquí son similares a los discutidos anteriormente. Las violaciones son el menosprecio de las normas y procedimientos. Como el nombre implica, las violaciones rutinarias son las que pasan habitualmente y son normalmente toleradas por las organizaciones o autoridades. Las violaciones excepcionales son inusuales y poco frecuentes. Por ejemplo conducir a 90 km/h en una zona limitada de velocidad a 80 km/h es una violación rutinaria pero conducir a 150 en la misma zona es excepcional.

Hay 2 tipos de precondiciones para actos inseguros: los que relacionan el estado interno de la persona operadora y los que relacionan las formas de trabajar de la persona operadora. Estados internos adversos incluyen aquellos que están relacionados a la fisiología (por ejemplo enfermedades) y estados mentales (por ejemplo fatiga mental, distracciones). Un tercer aspecto de estado interno es un desajuste entre las habilidades y las tareas solicitadas al operador. La falta de práctica es otro tipo de precondición para actos inseguros. Estos incluyen un equipo pobre de recursos de dirección (tareas como la de liderazgo y la comunicación) y un personal poco preparado.

4 tipos de supervisión insegura son: supervisión inadecuada, planear operaciones inapropiadas, errores al corregir problemas conocidos y la no supervisión.

Las influencias organizacionales incluyen aquellos recursos relacionados con la dirección (por ejemplo inadecuado personal o recursos de financiación) clima organizacional (estructuras, políticas y culturas) y procesos organizacionales (como procedimientos, calendarios).

Algunos investigadores han descubierto que la dicotomía de las acciones humanas como "correcto" o "incorrecto" es una perjudicial simplificación de un complejo fenómeno (ver Hollnagel and Amalberti, 2001). Un punto de vista en la variedad de la actuación humana y en cómo las personas operadoras pueden lograr que la variabilidad pueda ser un acercamiento más provechoso. Además, como se dice más arriba, el concepto de resiliencia destaca la conducta positiva que los humanos pueden jugar en complejos sistemas.

¿Cómo se pueden controlar los errores humanos? Como se puede analizar la fiabilidad humana? Hay varias técnicas y procedimientos para llevar a cabo este control, que a continuación se exponen a continuación.

Técnicas de Análisis para la Fiabilidad Humana[editar]

Existen una variedad de métodos existentes para el análisis de la fiabilidad humana. Dos tipos de métodos son aquellos basados ​​en el asesoramiento de la probabilidad de riesgo y los basados ​​en una teoría cognitiva de control.

  • Técnicas basadas en PRA

Un método para analizar la fiabilidad humana es una extensión del asesoramiento de la probabilidad de riesgo (PRA): de la misma manera que un equipo puede fallar en una planta, también lo puede hacer un operador humano al cometer errores . En ambos casos, un análisis (descomposición funcional para el equipamiento y el análisis de tareas para humanos) articularía un nivel de detalle que permitiría asignar el fallo o la probabilidad de error. Esta idea básica está detrás de Technique for Human Error Rate Prediction (THERP. Swain & Guttman, 1983). THERP pretende generar la probabilidad de error humano que se incorporaría en un PRA. El Accidente Sequence Evaluation Program (ASEP) es una forma simplificada del THERP; una herramienta computacional asociada es Simplified Human Error Analysis Code (SHEAN).[1] Más recientemente, la US Nuclear Regulatory Commission ha publicado el Standardized Plant Analysis Risk (SPAR).[2]

  • Técnicas de Control cognitivo

Erik Hollnagel ha desarrollado esta forma de pensar con su trabajo en la Contextual Control Model (COCOM)[3] y el Cognitive Reliability and Error Analysis Method (CREAM).[4] COCOM modela la actividad humana como una serie de métodos de control estratégicos (basados ​​en planificación a largo plazo), tácticos (basados ​​en procedimientos), oportunistas (basados ​​en el contexto actual), y aleatorios, y propone un modelo de cómo se convierten las transiciones entre estos métodos de control. Este modelo de transición de métodos de control consiste en una serie de factores, incluyendo la estimación del resultado de una acción (éxito o fallo) por parte del operador humano, el tiempo que resta para cumplir la acción (adecuado o inadecuado), y el número de objetivos simultáneos del operador humano en ese momento. CREAM es un método de análisis basado en COCOM.

  • Técnicas relacionadas

Las técnicas relacionadas en seguridad ingenieril y fiabilidad ingenieril incluyen el Modo de Fallo y el Análisis de consecuencias, HAZOP, Árbol de fallo y Systems Analysis Programs for Hands-on Integrated Reliability evaluation.

Referencias[editar]

  1. Wilson, 1993, jsp? osti_id = 10162198 SHEAN
  2. [1].
  3. Hollnagel, 1993
  4. Hollnagel, 1998

Bibliografía[editar]

  • Gertman, D. L. and Blackman, H. S. (2001). Human reliability and safety analysis fecha handbook . Wiley.
  • Gertman, D., Blackman, H., Marble, J., Byers, J. and Smith, C. (2005). The SPAR-H human reliability analysis method . NUREG/CR-6883. Idaho National Laboratory, Prepared for U. S. Nuclear Regulatory Commission.
  • Hollnagel, E. (1998). Cognitive reliability and error analysis method: CREAM . Elsevier.
  • Hollnagel, E. and Amalberti, R. (2001). The Emperor s New Clothes, oro whatever happened to "human error"? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development. Linköping, June 11-12, 2001.
  • Hollnagel, E., Woods, D. D., and Leveson, N. (Eds.) (2006). Resilience engineering: Concepts and preceptos . Ashgate.
  • Jones, P. M. (1999). Human error and its améliorations . In Handbook of Systems Engineering and Management (AP Sage and WB Rouse, eds.), 687-702. Wiley.
  • Kirwan, B. (1994). A practical guide to human reliability assessment . Taylor & Francis.
  • Norman, D. (1988). The psychology of everyday things . Basic Books.
  • Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols and other Distinction in human performance modelos . IEEE Transactions on Systems, Man, and Cybernetics, SMC-13, 257-267.
  • Rasmussen, J. (1986). Information processing and human-machine interaction: An approach to cognitive engineering . Wiley.
  • Reason, J. (1990). Human error . Cambridge University Press.
  • Roth, E. et al (1994). An empirical investigation of operator performance in cognitive demanding simulated emergencias . NUREG/CR-6208, Westinghouse Science and Technology Center. Report Prepared for Nuclear Regulatory Commission.
  • Senderos, J. and Moray, N. (1991). Human error: Cause, prediction, and reduction . Lawrence Erlbaum Associates.
  • Shappell, S. & Wiegmann, D. (2000). The human factores analysis and clasificación system - HFACS. DOT/FAA/AM-00/7, Office of Aviation Medicine, Federal Aviation Administration, Department of Transportation.
  • Swain, A. D., & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications . NUREG/CR-1278 (Washington D.C.).
  • Wilson, J.R. (1993). SHEAN (Simplified Human Error Analysis code) and automated THERP . United States Department of Energy Technical Report Number WinCEM - 11908.