Teoría motora de la percepción del habla
La teoría motora de la percepción del habla es la hipótesis que propone que las personas perciben las palabras habladas identificando los movimientos del tracto vocal con los que se pronuncian en lugar de identificar los patrones de sonido que genera el habla. [1][2][3][4][5]Originalmente la teoría afirmaba que la percepción del habla se realiza a través de un módulo especializado que es innato y específico del ser humano, y aunque algunas versiones más recientes de la teoría la han certificado[5], la idea sigue siendo que el papel del sistema motor del habla no sea sólo producir articulaciones del habla, sino también detectarlas.[6]
Dicha hipótesis ha ganado más interés por fuera del campo de la percepción del habla que por dentro, lo que ha aumentado particularmente desde el descubrimiento de las neuronas espejo que vinculan la producción y la percepción de los movimientos motores, incluidos los realizados por el tracto vocal.[5] La teoría fue propuesta inicialmente en los Laboratorios Haskins en la década de 1950 por Alvin Liberman y Franklin S. Cooper, y fue desarrollada por Donald Shankweiler, Michael Studdert-Kennedy, Ignatius Mattingly, Carol Fowler y Douglas Whalen.
Orígenes y desarrollo
[editar]La hipótesis tiene su origen en la investigación que utilizaba un sistema analógico de reproducción de espectogramas estilizados (Pattern Playback) para crear dispositivos de lectura para ciegos, los cuales sustituyeran los sonidos por letras ortográficas.[7] Esto condujo a un examen detallado sobre cómo los sonidos hablados se corresponden con el espectrograma acústico de los mismos como una secuencia de sonidos auditivos y se comprobó que las consonantes y vocales sucesivas se superponen entre ellas en el tiempo (fenómeno conocido como coarticulación ),[8][9][10] sugiriendo que el habla no se escucha como un "alfabeto" o "cifrado" acústico, sino como un "código" de gestos de habla superpuestos.
Enfoque asociacionista
[editar]Inicialmente, la teoría era asociacionista, en la que los lactantes menores imitan el habla que escuchan y eso conduce a asociaciones conductistas entre la articulación y sus consecuencias sensoriales. Más adelante, este mimetismo manifiesto haría corto circuito y se convertiría en percepción del habla,[9] sin embargo, este aspecto de la teoría abandonó con el descubrimiento de que los lactantes menores prelingüísticos ya podían detectar la mayoría de los contrastes fonéticos utilizados para separar los diferentes sonidos del habla.[11]
Enfoque cognitivista
[editar]El enfoque conductista se reemplazó por el cognitivista, en donde había un módulo del habla,[1] el cual detectaba el habla en términos de objetos distales ocultos en lugar de hacerlo a nivel proximal o inmediato de su entrada. Como evidencia de esto, se descubrió que el procesamiento del lenguaje, como en la percepción dúplex.[12]
Cambio de objetos distales
[editar]Inicialmente, se asumió que la percepción del habla se vinculaba con objetos del habla, los cuales eran:
- Los movimientos invariantes de los articuladores del habla [9]
- Los comandos motores invariantes enviados a los músculos para mover los articuladores del tracto vocal [13]
Posteriormente, esto se revisó para incluir gestos fonéticos en vez de comandos motores [1] y luego los gestos planeados por el hablante a un nivel lingüístico pre-fonético, en vez de los movimientos reales.[14]
Revisión moderna
[editar]La afirmación de que el habla es especial fue descartada[5], ya que se encontró que la percepción del habla podría presentarse con sonidos no verbales (por ejemplo, azote de puertas con la percepción dúplex).[15]
Neuronas espejo
[editar]El descubrimiento de las neuronas espejo condujo nuevamente a un interés por la teoría motora de la percepción del habla y la ésta sigue teniendo defensores, aunque también existen críticos.[16]
Fundamentos
[editar]Información de gestos no auditivos
[editar]Si el habla se identifica en términos de cómo se produce físicamente, entonces la información no auditiva debería incorporarse en las percepciones del habla incluso si todavía se escuchan, subjetivamente, como "sonidos". Y este es el caso.
- El efecto McGurk muestra que al observar la producción de una sílaba pronuciada diferente a una señal auditiva sincronizada afecta la percepción de la señal auditiva. En otras palabras, si alguien escucha "ba" pero ve un video de alguien más pronunciando "ga", lo que escucha es diferente (algunas personas creen escuchar "da").
- A las personas les resulta más fácil discernir el habla dentro de bullicios si pueden ver al hablante.[17]
- Las personas pueden escuchar mejor las sílabas cuando su producción se puede de manera háptica.[18]
Percepción categórica
[editar]Usando un sintetizador de voz, los sonidos del habla pueden variar en el punto de la articulación a lo largo de un rango que va desde /bɑ/ a /dɑ/ hasta /ɡɑ/, o en el voice on set time en un rango que va de /dɑ/ a /tɑ/, por ejemplo. Cuando se solicita a los oyentes que distingan entre dos sonidos diferentes, perciben los sonidos como pertenecientes a categorías discretas; incluso si los sonidos varían de manera continua. En otras palabras, 10 sonidos (con el sonido en un extremo siendo /dɑ/ y el sonido en el otro es /tɑ/, y los del medio variando en una escala) pueden ser todos diferentes entre sí acústicamente, pero el oyente las escuchará todos como /dɑ/ o /tɑ/. Así mismo, la consonante sajona /d/ puede tener variaciones de detalles acústicos en diferentes contextos fonéticos (la /d/ de /du/ técnicamente no suena igual que la de /di/, por ejemplo), pero todas las /d/ que percibe un oyente pertenecen a una misma categoría (oclusiva alveolar sonora) y esto se debe a que "las representaciones lingüísticas son segmentos fonéticos abstractos y canónicos o los gestos que subyacen a estos segmentos". Esto sugiere que los humanos identifican el habla utilizando una percepción categórica y, por lo tanto, que la teoría del módulo especializado, como el que fue propuesto por la teoría motora de la percepción del habla, va por buen camino.[19]
Imitación del habla
[editar]Si las personas pueden escuchar los gestos en el habla entonces la imitación del habla debería ser muy rápida, similar a la repetición de las palabras que se escuchan en los audífonos en el shadowing del habla.[20] Las personas pueden repetir las sílabas que escuchan más rápido de lo que podrían de producirlas normalmente.[21]
Producción del habla
[editar]- Escuchar el habla activa los músculos del tracto vocal, [22] y la corteza motora y la corteza premotora. La integración de la entrada auditiva y visual en la percepción del habla también involucra dichas áreas.[23][24]
- La alteración de la corteza premotora inhibe la percepción de las unidades del habla, como las oclusivas.[24]
- La activación de las áreas motoras se produce en función de los rasgos fonéticos que se vinculan con los articuladores de la pista vocal, los cuales crean los gestos del habla.[24]
- La percepción de un sonido del habla se ve favorecida por la estimulación preventiva de la representación motora de los articuladores responsables de su pronunciación.[25]
- El acoplamiento cortical auditivo y motor está restringido a un rango específico de frecuencia de activación neuronal.[26]
Dualidad percepción-acción
[editar]Existe evidencia de que la percepción y la producción están generalmente acopladas en el sistema motor, esto está respaldado por la existencia de las neuronas espejo que se activan tanto al ver (u oír) una acción, así como cuando esta acción se lleva a cabo.[16] Otra fuente de evidencia es la teoría de codificación dual entre las representaciones utilizadas para la percepción y la acción.[27]
Críticas
[editar]La teoría motora de la percepción del habla no es muy considerada en el campo de la percepción del habla, aunque es más popular en otros campos como la lingüística teórica. Como tres de sus defensores han señalado, "tiene pocas propuestas en el campo de la percepción del habla y muchos autores la citan principalmente para ofrecer comentarios críticos".[5] Existen varias críticas al respecto.[28][29]
Múltiples recursos
[editar]La percepción del habla se ve afectada por fuentes de información que no son de producción, como el contexto. Las palabras individuales son difíciles de entender de forma aislada, pero fáciles cuando se escuchan en el contexto de una oración, por lo tanto,parece que la percepción del habla utiliza múltiples recursos que se integran entre sí de manera óptima.[28]
Producción
[editar]La teoría motora de la percepción del habla predeciría que las habilidades motoras del habla en los lactantes menores prevén sus habilidades de percepción del habla, pero en realidad es todo lo contrario. También predeciría que los defectos de la producción del habla afectarían la percepción del habla, pero no es así,[30] sin embargo, esto sólo afecta a la primera, y ya reemplazada, versión conductista de la teoría, en la que se suponía que los lactantes menores aprendían todos los patrones de producción-percepción por medio de la imitación en la primera infancia.[31]Esta visión ya no es la dominante entre los teóricos del habla motora.
Módulo de habla
[editar]Varias fuentes de evidencia de la existencia de un módulo de habla especializado no se han podido corroborar.
- La percepción dúplex se puede observar con portazos.[15]
- El efecto McGurk también se puede lograr con estímulos no lingüísticos, como mostrarle a alguien un video de un balón de básquetbol rebotando pero reproduciendo el sonido de una pelota de ping pong rebotando.[32]
- En cuanto a la percepción categórica, los oyentes pueden ser sensibles a las diferencias acústicas dentro de categorías fonéticas individuales.
Como resultado, algunos investigadores abandonaron esta parte de la teoría.[5]
Tareas subléxicas
[editar]La evidencia proporcionada para la teoría motora de la percepción del habla se limita a tareas como la discriminación de sílabas que usan unidades de habla en lugar de palabras habladas completas u oraciones habladas. Como resultado, "la percepción del habla a veces se interpreta como una referencia a sí misma en el nivel subléxico, no obstante, el objetivo final de estos estudios es comprender los procesos neuronales que respaldan la capacidad de procesar sonidos del habla bajo condiciones ecológicamente válidas, es decir, situaciones en las que el procesamiento exitoso de los sonidos del habla finalmente conduce al contacto con el léxico mental y la comprensión auditiva".[33] Sin embargo, esto crea el problema de "una tenue conexión con su objetivo implícito de investigación, el reconocimiento voz".[33]
Aves
[editar]Se ha sugerido que las aves también escuchan el canto entre ellas en términos de gestos vocales.[34]
Véase también
[editar]Referencias
[editar]- ↑ a b c Liberman, A. M.; Cooper, F. S.; Shankweiler, D. P.; Studdert-Kennedy, M. (1967). «Perception of the speech code». Psychological Review 74 (6): 431-461. PMID 4170865. doi:10.1037/h0020279.
- ↑ Liberman, A. M.; Mattingly, I. G. (1985). «The motor theory of speech perception revised». Cognition 21 (1): 1-36. PMID 4075760. doi:10.1016/0010-0277(85)90021-6.
- ↑ Liberman, A. M.; Mattingly, I. G. (1989). «A specialization for speech perception». Science 243 (4890): 489-494. Bibcode:1989Sci...243..489L. PMID 2643163. doi:10.1126/science.2643163.
- ↑ Liberman, A. M.; Whalen, D. H. (2000). «On the relation of speech to language». Trends in Cognitive Sciences 4 (5): 187-196. PMID 10782105. doi:10.1016/S1364-6613(00)01471-6.
- ↑ a b c d e f Galantucci, B.; Fowler, C. A.; Turvey, M. T. (2006). «The motor theory of speech perception reviewed». Psychonomic Bulletin & Review 13 (3): 361-377. PMC 2746041. PMID 17048719. doi:10.3758/bf03193857.
- ↑ Montoya, Olga Lucia; Serna, Gladys Iliana; Martínez, Oswal (2022). «Procesos de percepción auditiva y aprendizaje motor. Revisión bibliográfica». MHSalud 19 (1): 1-12. Consultado el 22 de noviembre de 2024.
- ↑ Liberman, A. M. (1996). Speech: A special code. Cambridge, MA: MIT Press. ISBN 978-0-262-12192-7
- ↑ Liberman, A. M.; Delattre, P.; Cooper, F. S. (1952). «The role of selected stimulus-variables in the perception of the unvoiced stop consonants». The American Journal of Psychology 65 (4): 497-516. PMID 12996688. doi:10.2307/1418032.
- ↑ a b c Liberman, Alvin M.; Delattre, Pierre C.; Cooper, Franklin S.; Gerstman, Louis J. (1954). «The role of consonant-vowel transitions in the perception of the stop and nasal consonants.». Psychological Monographs: General and Applied (en inglés) 68 (8): 1-13. ISSN 0096-9753. doi:10.1037/h0093673. Consultado el 22 de noviembre de 2024.
- ↑ Fowler, C. A.; Saltzman, E. (1993). «Coordination and coarticulation in speech production». Language and Speech. 36 ( Pt 2-3) (2–3): 171-195. PMID 8277807. doi:10.1177/002383099303600304. PDF
- ↑ Bosch Galceran, L. (1 de enero de 2006). «Capacidades tempranas en la percepción del habla y su utilización como indicadores para la detección de trastornos». Revista de Logopedia, Foniatría y Audiología 26 (1): 3-11. ISSN 0214-4603. doi:10.1016/S0214-4603(06)70092-4. Consultado el 22 de noviembre de 2024.
- ↑ Herrera, Luis (2019-03). «Procesamiento Cerebral del Lenguaje: Historia y evolución teórica». Fides et Ratio - Revista de Difusión cultural y científica de la Universidad La Salle en Bolivia 17 (17): 101-130. ISSN 2071-081X. Consultado el 22 de noviembre de 2024.
- ↑ Liberman, A. M. (1970). «The grammars of speech and language». Cognitive Psychology 1 (4): 301-323. doi:10.1016/0010-0285(70)90018-6. Archivado desde el original el 31 de diciembre de 2015. Consultado el 2 de junio de 2009.
- ↑ Liberman, A. M.; Mattingly, I. G. (1985). «The motor theory of speech perception revised». Cognition 21 (1): 1-36. PMID 4075760. doi:10.1016/0010-0277(85)90021-6. Archivado desde el original el 15 de abril de 2021. Consultado el 2 de junio de 2009.
- ↑ a b Fowler, C. A.; Rosenblum, L. D. (1990). «Duplex perception: A comparison of monosyllables and slamming doors». Journal of Experimental Psychology. Human Perception and Performance 16 (4): 742-754. PMID 2148589. doi:10.1037/0096-1523.16.4.742.
- ↑ a b «La comunicación gestual. Teoría de la mente y neuronas espejo - Anales RANM». Anales de la Real Academia Nacional de Medicina de España. 20 de julio de 2020. Consultado el 22 de noviembre de 2024.
- ↑ MacLeod, A.; Summerfield, Q. (1987). «Quantifying the contribution of vision to speech perception in noise». British Journal of Audiology 21 (2): 131-141. PMID 3594015. doi:10.3109/03005368709077786.
- ↑ Fowler, C. A.; Dekle, D. J. (1991). «Listening with eye and hand: Cross-modal contributions to speech perception». Journal of Experimental Psychology. Human Perception and Performance 17 (3): 816-828. PMID 1834793. doi:10.1037/0096-1523.17.3.816.
- ↑ Ivanova, Olga (2017). «Fundamentos neurocognitivos del procesamiento lingüístico». Estudios de Lingüística Aplicada 0 (66): 235-261. ISSN 0185-2647. Consultado el 22 de noviembre de 2024.
- ↑ Marslen-Wilson, W. (1973). «Linguistic structure and speech shadowing at very short latencies». Nature 244 (5417): 522-523. Bibcode:1973Natur.244..522M. PMID 4621131. doi:10.1038/244522a0.
- ↑ Porter Jr, R. J.; Lubker, J. F. (1980). «Rapid reproduction of vowel-vowel sequences: Evidence for a fast and direct acoustic-motoric linkage in speech». Journal of Speech and Hearing Research 23 (3): 593-602. PMID 7421161. doi:10.1044/jshr.2303.593.
- ↑ Fadiga, L.; Craighero, L.; Buccino, G.; Rizzolatti, G. (2002). «Speech listening specifically modulates the excitability of tongue muscles: A TMS study». The European Journal of Neuroscience 15 (2): 399-402. PMID 11849307. doi:10.1046/j.0953-816x.2001.01874.x.
- ↑ Skipper, J. I.; Van Wassenhove, V.; Nusbaum, H. C.; Small, S. L. (2006). «Hearing Lips and Seeing Voices: How Cortical Areas Supporting Speech Production Mediate Audiovisual Speech Perception». Cerebral Cortex 17 (10): 2387-2399. PMC 2896890. PMID 17218482. doi:10.1093/cercor/bhl147.
- ↑ a b c «Corteza y Vía Motora». www.facmed.unam.mx. Consultado el 22 de noviembre de 2024.
- ↑ d'Ausilio, A.; Pulvermüller, F.; Salmas, P.; Bufalari, I.; Begliomini, C.; Fadiga, L. (2009). «The Motor Somatotopy of Speech Perception». Current Biology 19 (5): 381-385. PMID 19217297. doi:10.1016/j.cub.2009.01.017.
- ↑ Assaneo, M. Florencia; Poeppel, David (2018). «The coupling between auditory and motor cortices is rate-restricted: Evidence for an intrinsic speech-motor rhythm». Science Advances 4 (2): eaao3842. Bibcode:2018SciA....4.3842A. PMC 5810610. PMID 29441362. doi:10.1126/sciadv.aao3842.
- ↑ «Allan Paivio». www.infoamerica.org. Consultado el 22 de noviembre de 2024.
- ↑ a b Massaro, D. W. (1997). Perceiving talking faces: From speech perception to a behavioral principle. Cambridge, MA: MIT Press. ISBN 978-0-262-13337-1.
- ↑ Lane, H (1965). «The Motor Theory of Speech Perception: A Critical Review». Psychological Review 72 (4): 275-309. PMID 14348425. doi:10.1037/h0021986.
- ↑ MacNeilage, P. F.; Rootes, T. P.; Chase, R. A. (1967). «Speech production and perception in a patient with severe impairment of somesthetic perception and motor control». Journal of Speech and Hearing Research 10 (3): 449-67. PMID 6081929. doi:10.1044/jshr.1003.449.
- ↑ Gutiérrez, Mariana; López, Florente (2005). «Interacción verbal madre-bebé: Responsividad e intencionalidad». Revista Mexicana de Psicología 22 (2): 491-503. ISSN 0185-6073. Consultado el 22 de noviembre de 2024.
- ↑ Flores Coronado, Marco Antonio (mayo, 2021). «Integraci´on multimodal como predicciones. El caso del efecto McGurk». Instituto de Investigación en Ciencias Básicas y Aplicadas Centro de Investigación en Ciencias, CInC. Consultado el 22 de noviembre de 2024.
- ↑ a b Hickok, G.; Poeppel, D. (2007). «The cortical organization of speech processing». Nature Reviews Neuroscience 8 (5): 393-402. PMID 17431404. doi:10.1038/nrn2113. See page 394
- ↑ Williams, H.; Nottebohm, F. (1985). «Auditory responses in avian vocal motor neurons: A motor theory for song perception in birds». Science 229 (4710): 279-282. Bibcode:1985Sci...229..279W. PMID 4012321. doi:10.1126/science.4012321.