Ir al contenido

Sistema de Codificación Facial

De Wikipedia, la enciclopedia libre
Esta es una versión antigua de esta página, editada a las 22:10 27 sep 2020 por AVIADOR (discusión · contribs.). La dirección URL es un enlace permanente a esta versión, que puede ser diferente de la versión actual.
Músculos de cabeza y cuello.

Codificación Facial es un sistema para denominar movimientos faciales humanos por su apariencia en la cara, basado en un sistema desarrollado originalmente por un anatomista sueco llamado Carl- Herman Hjortsjö.[1]​ Fue tomado después por Paul Ekman y Wallace V. Friesen, y publicado en 1978[2]​Ekman, Friesen, and Joseph C. Hager publicaron una importante actualización de la Programación y Codificación facial en 2002.[3]​ Los movimientos individuales de los músculos faciales son codificadas por ' FACS ' desde leves cambios instantáneos en la apariencia facial.[4]​Se trata de un estándar común de clasificar sistemáticamente la expresión física de emociones , y ha demostrado ser útil para la psicología y para la animación. Debido a cuestiones de tiempo y problemas en la percepción subjetiva, la codificación facial (FACS) se ha establecido como un sistema computarizado automático que detecta los rostros en vídeos , extrae las características geométricas de las caras , y luego produce perfiles temporales de cada movimiento facial.[4]​ El pionero F-M Facial Action Coding System 2.0 (F-M FACS 2.0)[5]​ fue creado en 2017 por el Dr. Freitas-Magalhães, y presenta 2.000 segmentos en 4K, utilizando tecnología 3D y reconocimiento automático y en tiempo real. El pionero F-M Facial Action Coding System 3.0 (FM FACS 3.0)[6]​ fue creado en 2018 por el Dr. Freitas-Magalhães, y presenta 4.000 segmentos en 4K, utilizando tecnología 3D y reconocimiento automático y en tiempo real (FaceReader 7.1). FM FACS 3.0 presenta 8 unidades de acción pioneras (AU) y 22 movimientos de lengua (TM) pioneros, además de la nomenclatura funcional y estructural.

Usos

Utilizando la codificación facial (FACS),[7]​ diversos codificadores humanos pueden manualmente detectar casi cualquier expresión facial anatómicamente posible , descodificando en las unidades específicas de acción ( UA) y los segmentos temporales que produjeron la expresión. Como las unidades específicas de acción (UA) son independientes de cualquier interpretación, estas pueden ser utilizadas para la toma de decisiones de orden superior incluyendo el reconocimiento de emociones básicas, o los comandos pre-programados para un entorno ambiental inteligente. El Manual de FACS es de más de 500 páginas de extensión y enseña las UA´S, así como la interpretación de Ekman acerca de su significado .

La codificación facial define UA, como una contracción o la relajación de uno o más músculos. También define una serie de descriptores de acción, que se diferencian de las UA debido a que la codificación facial no ha especificado la base muscular para la acción y tienen comportamientos específicos no distinguidos con tanta precisión como lo han hecho por la UA.


Por ejemplo, la codificación facial puede ser utilizada para distinguir dos tipos de sonrisa como se muestra:[8]

Aunque el etiquetado de las expresiones actualmente requiere de expertos entrenados, los investigadores han tenido cierto éxito en el uso de computadoras para identificar automáticamente los códigos faciales, y así identificar rápidamente las emociones.[9]​ Modelos faciales computarizados, como CANDIDE o Artnatomy , permiten expresiones artificialmente planteadas mediante el establecimiento de las unidades de acción deseadas.

El uso de FACS se ha propuesto para su uso en el análisis del Trastorno depresivo mayor,[10]​ y la medición del dolor en pacientes que no pueden expresarse verbalmente.[11]​ FACS está diseñado para ser auto - dirigido. La gente puede aprender la técnica a partir de una serie de fuentes incluyendo los manuales y talleres,[12]​ y obtener una certificación a través de evaluación.[13]​El FACS original ha sido modificado para analizar los movimientos faciales en varios primates no humanos , a saber chimpancés,[14]​ macacos,[15]​ gibones,[16]​ y orangutanes[17]​ Más recientemente , se ha adaptado para una especie doméstica, el perro[18]​ Por lo tanto, FACS se puede utilizar para comparar los repertorios faciales a través de especies debido a su base anatómica. Un estudio realizado por Vick y otros (2006) sugiere que FACS se puede modificar mediante la adopción de las diferencias en la morfología subyacente en cuenta. Tales consideraciones permiten una comparación de los movimientos faciales homólogas presentes en los seres humanos y los chimpancés, para demostrar que las expresiones faciales de ambas especies son el resultado de cambios de apariencia extremadamente notables. El desarrollo de herramientas de FACS para diferentes especies permite el estudio objetivo y anatómico de las expresiones faciales en contextos comunicativos y emocionales. Por otra parte, un análisis transversal de las especies en las expresiones faciales pueden ayudar a responder preguntas interesantes, como por ejemplo por qué las emociones son exclusivamente humanas.[19]

EMFACS, por sus siglas en inglés (Emotional Facial Action Coding System)[20]​ y FACSAID (Facial Action Coding System Affect Interpretation Dictionary)[21]​ consideran solo acciones faciales relacionadas con la emoción. Como ejemplo:

Emoción Unidades de acción
Felicidad 6+12
Tristeza 1+4+15
Sorpresa 1+2+5B+26
Miedo 1+2+4+5+7+20+26
Coraje 4+5+7+23
Disgusto 9+15+16
Desprecio R12A+R14A

Nomenclatura para unidades de acción

Para mayor claridad, FACS es un índice de las expresiones faciales, pero en realidad no proporciona ninguna información bio-mecánica sobre el grado de activación del músculo. Aunque la activación del músculo no es parte de FACS, los principales músculos implicados en la expresión facial se han añadido aquí para el beneficio del lector.

Unidades de acción (AUS) son las acciones fundamentales de músculos o grupos individuales de los mismos.

Nominadores de acción son movimientos unitarios que pueden implicar las acciones de varios grupos musculares (por ejemplo, un movimiento hacia adelante empujando de la mandíbula). La base muscular para estas acciones no se ha especificado y comportamientos específicos no han sido distinguidos con la mayor precisión para la UA.

Para anotación más precisa, FACS sugiere acordar a partir de al menos dos codificadores FACS certificados independientes.

Notación de intensidad

Las intensidades de FACS se anotan añadiendo las letras A-E (para la intensidad mínima-máxima) y números para la unidad de acción (por ejemplo, AU 1A es la traza más débil de AU 1 y AU 1E es la máxima intensidad posible para el gesto facial).

  • A Rastro
  • B Leve
  • C Pronunciado
  • D Severo o extremo
  • E Máximo

Lista de Unidades de acción y descripciones de acción (con los músculos faciales subyacentes)

Códigos Principales

Número de acción Nombre de acción
0 Rostro Neutral
1 Levantamiento interior de ceja
2 Levantamiento exterior de ceja
4 Bajar cejas
5 Levantamiento del párpado superior
6 Levantamiento de mejillas
7 Apretar parpado(s)
8 Labios encimados uno de otro
9 Arrugar la nariz
10 Levantamiento del labio superior
11 Profundidad nasolabial
12 Tiramiento labial esquinal
13 Tiramiento labial frontal
14 Hoyuelo facial
15 Depresión labial esquinal
16 Depresión labial frontal
17 Levantamiento de barbilla
18 Arruga labial
19 Muestro de lengua
20 Apretar los labios
21 Apretamiento de cuello
22 Embudo labial
23 Morder labios
24 Presión Labial
25 Deslizamiento labial
26 Caída de la mandíbula
27 Apretamiento bucal
28 Lamido labial
29 Tracción de la mandíbula
30 Deslizamiento de mandíbula
31 Contracción mandibular
32 Mordida labial
33 Succión de mejillas
34 Inflar mejillas
35 Soplido de mejillas
36 Protuberancia de lengua
37 Limpieza labial
38 Dilatado nasal
39 Compresión nasal
41 Bajada de párpados
42 Contracción retinal
43 Ojos cerrados
44 Recolector retinal
45 Parpadeo
46 Guiño

Códigos motores de cabeza

Número de acción Nombre de acción
51 Girar cabeza a la izquierda
52 Girar cabeza a la derecha
53 Alzar la cabeza
54 Bajar la cabeza
55 Inclinación de la cabeza hacia la derecha
M55 Inclinación de la cabeza a la izquierda
56 Leve inclinación
M56 Inclinación derivada en el cuello
57 Head Forward
M57 Empujar cabeza hacia adelante
58 Empujar hacia atrás
M59 Agitar cabeza hacia arriba y abajo
M60 Agitar cabeza de lado a lado
M83 Inclinación diagonal

Códigos de movimiento ocular

Número de acción Nombre de acción
61 Mover ojos hacia la izquierda
M61 Ojos a la izquierda
62 Mover ojos a la derecha
M62 Ojos a la derecha
63 Ojos hacia arriba
64 Ojos hacia abajo
65 Leucoma
66 Estrabismo
M68 Deslizamiento ocular
69 Fijar los ojos en otra persona
M69 Posicionamiento ocular y frontal

Códigos de visibilidad

Número de acción Nombre de acción
70 Frente y cejas no visibles
71 Ojos no visibles
72 Mentón no visible
73 Rostro sin movimiento
74 Indescifrable

Códigos de comportamiento bruto

Estos códigos están reservados para el registro de información sobre conductas manifiestas que pueden ser relevantes para las acciones faciales a calificar.

Número de acción Nombre de acción
40 Estornudo
50 Discurso
80 Tragar
81 Masticar
82 Encogimiento de hombros
84 Sacudir cabeza
85 Asentir con la cabeza
91 Movimiento instantáneo
92 Movimiento instantáneo parcial
97* Temblar
98* Barrido ocular

Referencias

  1. Hjortsjö, CH (1969). Man's face and mimic language.
  2. P. Ekman and W. Friesen. Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press, Palo Alto, 1978.
  3. Paul Ekman, Wallace V. Friesen, and Joseph C. Hager. Facial Action Coding System: The Manual on CD ROM. A Human Face, Salt Lake City, 2002.
  4. a b Hamm, J.; Kohler, C. G.; Gur, R. C.; Verma, R. (2011). "Automated Facial Action Coding System for dynamic analysis of facial expressions in neuropsychiatric disorders". Journal of Neuroscience Methods 200 (2): 237–256. doi:10.1016/j.jneumeth.2011.06.023. PMC 3402717. PMID 21741407
  5. Freitas-Magalhães, A. (2017). Facial Action Coding System 2.0: Manual de Codificación Científica de la Cara Humana. Porto: FEELab Science Books. ISBN 978-989-8766-90-8.
  6. Freitas-Magalhães, A. (2018). Facial Action Coding System 3.0: Manual de Codificación Científica de la Cara Humana. Porto: FEELab Science Books. ISBN 978-989-8766-90-8.
  7. Freitas-Magalhães, A. (2012). Microexpression and macroexpression. In V. S. Ramachandran (Ed.), Encyclopedia of Human Behavior (Vol. 2, pp. 173–183). Oxford: Elsevier/Academic Press. ISBN 978-0-12-375000-6
  8. Del Giudice, M.; Colle, L. (2007). "Differences between children and adults in the recognition of enjoyment smiles". Developmental Psychology 43 (3): 796–803. doi:10.1037/0012-1649.43.3.796. PMID 17484588
  9. Facial Action Coding System. Retrieved July 21, 2007.
  10. Reed, L. I.; Sayette, M. A.; Cohn, J. F. (2007). "Impact of depression on response to comedy: A dynamic facial coding analysis". Journal of Abnormal Psychology 116 (4): 804–809. doi:10.1037/0021-843X.116.4.804. PMID 18020726
  11. Lints-Martindale, A. C.; Hadjistavropoulos, T.; Barber, B.; Gibson, S. J. (2007). "A Psychophysical Investigation of the Facial Action Coding System as an Index of Pain Variability among Older Adults with and without Alzheimer's Disease". Pain Medicine 8 (8): 678–689. doi:10.1111/j.1526-4637.2007.00358.x. PMID 18028046
  12. https://web.archive.org/web/20090206232546/http://www.erikarosenberg.com/FACS.html Example and web site of one teaching professional: Erika L. Rosenberg, Ph.D
  13. https://web.archive.org/web/20090301161920/http://www.face-and-emotion.com/dataface/facs/fft.jsp
  14. Parr, L. A.; Waller, B. M.; Vick, S. J.; Bard, K. A. (2007). "Classifying chimpanzee facial expressions using muscle action". Emotion 7 (1): 172–181. doi:10.1037/1528-3542.7.1.172. PMC 2826116. PMID 1735257
  15. Parr, L. A.; Waller, B. M.; Burrows, A. M.; Gothard, K. M.; Vick, S. J. (2010). "Brief communication: MaqFACS: A muscle-based facial movement coding system for the rhesus macaque". American Journal of Physical Anthropology 143 (4): 625–630. doi:10.1002/ajpa.21401. PMC 2988871. PMID 20872742
  16. Waller, B. M.; Lembeck, M.; Kuchenbuch, P.; Burrows, A. M.; Liebal, K. (2012). "GibbonFACS: A Muscle-Based Facial Movement Coding System for Hylobatids". International Journal of Primatology 33 (4): 809. doi:10.1007/s10764-012-9611-6
  17. Caeiro, C. T. C.; Waller, B. M.; Zimmermann, E.; Burrows, A. M.; Davila-Ross, M. (2012). "OrangFACS: A Muscle-Based Facial Movement Coding System for Orangutans (Pongo spp.)". International Journal of Primatology 34: 115. doi:10.1007/s10764-012-9652-x
  18. Waller, B. M.; Peirce, K.; Caeiro, C. C.; Scheider, L.; Burrows, A. M.; McCune, S.; Kaminski, J. (2013). "Paedomorphic Facial Expressions Give Dogs a Selective Advantage". PLoS ONE 8 (12): e82686. doi:10.1371/journal.pone.0082686. PMC 3873274. PMID 24386109
  19. Vick, S. J.; Waller, B. M.; Parr, L. A.; Smith Pasqualini, M. C.; Bard, K. A. (2006). "A Cross-species Comparison of Facial Morphology and Movement in Humans and Chimpanzees Using the Facial Action Coding System (FACS)". Journal of Nonverbal Behavior 31 (1): 1–20. doi:10.1007/s10919-006-0017-z. PMC 3008553. PMID 21188285
  20. Friesen, W.; Ekman, P. (1983). EMFACS-7: Emotional Facial Action Coding System. Unpublished manual, University of California, California.
  21. https://web.archive.org/web/20110520164308/http://face-and-emotion.com/dataface/facsaid/description.jsp Facial Action Coding System Affect Interpretation Dictionary (FACSAID)

Enlaces externos