La adquisición del lenguaje por parte de niños sordos

De Wikipedia, la enciclopedia libre

La adquisición del lenguaje por parte de niños sordos es paralela al desarrollo de cualquier niño que adquiera el lenguaje hablado siempre que haya acceso completo al idioma desde el nacimiento.[cita requerida] A pesar del acceso limitado al lenguaje hablado, la comunicación y la exposición al lenguaje son fundamentales para el desarrollo cognitivo general de los bebés sordos y su compromiso con su entorno.

Si bien un número creciente de niños sordos en el mundo desarrollado reciben audífonos y / o implantes cocleares para apoyar la adquisición del lenguaje hablado,[1][2]​ hay comunidades sordas en todo el mundo que usan el lenguaje de señas. Los bebés nacidos de padres que utilizan lenguaje de señas, o expuestos de manera inmersiva a modelos fluidos de lenguaje de señas a una edad temprana, generalmente adquieren este tipo de lenguaje de forma nativa.[cita requerida]

El rol de los estímulos y el medio ambiente[editar]

Durante el primer año de vida, todos los bebés están preparados para adquirir información sobre el idioma en su entorno.[3][4]​ Los bebés sordos inmersos en el lenguaje de señas fluido desde el nacimiento desarrollan habilidades de lenguaje nativo en ese lenguaje de señas de la misma manera que cualquier otro niño que adquiera un idioma de forma nativa.[5][6][7]​ Sin embargo, la experiencia inicial de los niños sordos es muy variable y, con frecuencia, atípica desde la perspectiva de la adquisición del lenguaje.[5]​ Más del 95% de los niños sordos nacen en familias oyentes, no firmantes.[8]​ Los nuevos padres con un bebé sordo se enfrentan a una variedad de opciones sobre cómo interactuar con su recién nacido, y pueden probar varios métodos que incluyen diferentes cantidades de lenguaje de señas, capacitación en lenguaje oral y auditivo y códigos comunicativos inventados para facilitar la adquisición del lenguaje hablado.[9][10]​ Además, los padres pueden decidir si sus bebés usarán implantes cocleares o audífonos.[2]​ Según un estudio realizado en E.U.A. De 2008, aproximadamente el 55% de los niños sordos elegibles recibieron implantes cocleares.[1]​ Un estudio en Suiza encontró que al 80% de los niños sordos se les administraron implantes cocleares a partir de 2006[11]​ y el número ha aumentado constantemente.[9]​ Si bien los implantes cocleares proporcionan estimulación auditiva, no todos los niños logran adquirir el lenguaje hablado por completo.[9]​ Se encontró que los niños que recibieron implantes cocleares antes de los doce meses de edad tenían una probabilidad significativamente mayor de desarrollar el lenguaje hablado que los niños que recibieron implantes más tarde.[12][13]

Niños sordos nacidos de padres sordos[editar]

Alrededor del tres por ciento de los niños sordos nacen de dos padres sordos, y uno por ciento corresponde a solo un padre sordo.[8]: 153, 155 

Etapas tempranas (desde el nacimiento hasta los 12 meses)[editar]

Las etapas generales de la adquisición del idioma son las mismas tanto si el idioma se habla como si está firmado.[14]​ Hay ciertas características únicas de la adquisición del lenguaje de señas debido a la modalidad visual / manual y estas diferencias pueden ayudar a distinguir entre los aspectos universales de la adquisición del lenguaje y los aspectos que pueden verse afectados por la experiencia temprana.[14]

Las tareas lingüísticas más tempranas que enfrentan los recién nacidos son perceptivas.[3]​ Los bebés deben determinar qué elementos lingüísticos básicos se utilizan en su idioma nativo para crear palabras (su inventario fonético). También deben determinar cómo segmentar el flujo continuo de entrada de lenguaje en frases y, finalmente, en palabras.[13]​ Desde su nacimiento, se sienten atraídos por la información lingüística modelada, que es evidente si la entrada es oral o firmada.[15][16][17]​ Utilizan sus habilidades de percepción sensible para adquirir información sobre la estructura de su idioma nativo, en particular las características prosódicas y fonológicas.[3]​ Las lenguas de signos tienen patrones prosódicos naturales y los bebés son sensibles a estos límites prosódicos, incluso si no tienen experiencia específica con las lenguas de signos.[18]​ Los bebés que escuchan a los 6 meses de edad sin experiencia en signos también asisten preferentemente a los estímulos del lenguaje de señas sobre los gestos complejos, lo que indica que perciben el lenguaje de signos como una aportación lingüística significativa.[19]​ Dado que los bebés asisten a la lengua hablada y firmada de una manera similar, varios investigadores han concluido que gran parte de la adquisición de la lengua es universal, no está ligada a la modalidad de la lengua, y que las lenguas de signos se adquieren y procesan de manera muy similar a las lenguas habladas, si se dan exposición.[16][17][20]​ Al mismo tiempo, estos y otros investigadores señalan que hay muchas incógnitas en cuanto a cómo un lenguaje visual podría procesarse de manera diferente a un lenguaje hablado, especialmente dado el inusual camino de transmisión del lenguaje para la mayoría de los bebés sordos.[20][21]​ Las investigaciones muestran que los padres sordos con bebés sordos son más exitoso, que los padres oyentes, pues logran captar momentos de atención conjunta al firmar, que son momentos privilegiados del aprendizaje de idiomas.[22]​ Las madres sordas son más adeptas a asegurarse de que el bebé esté involucrado visualmente antes de firmar[23]​ y utilizan modificaciones específicas a su firma, lo que se conoce como signo dirigido por el niño[24]​ para captar y mantener la atención de sus hijos. Al igual que en el habla dirigida a niños (CDS), la firma dirigida a niños se caracteriza por una producción más lenta, una prosodia exagerada y la repetición.[24]​ Debido a las demandas únicas de un lenguaje visual, la firma dirigida por niños también incluye estrategias táctiles y la reubicación del lenguaje en la línea de visión del niño.[24][25]

El método[editar]

Pedagogía[editar]

Las estrategias de adquisición de lenguaje para la firma de niños sordos son diferentes de las apropiadas para los niños oyentes, o para los niños sordos que usan audífonos y / o implantes cocleares con éxito. Para los padres con niños sordos que no usan amplificación (audífonos o implantes cocleares), la atención conjunta (un componente importante para el desarrollo del lenguaje) puede ser problemática. Escuchar a los niños puede ver su entorno y escuchar un comentario de un adulto al respecto. Sin embargo, los niños que no escuchan tienen que cambiar de atención visual entre los estímulos.

Las estrategias para la comunicación no verbal incluyen el uso de expresiones faciales y lenguaje corporal para mostrar la emoción y reforzar la atención del niño a su cuidador. Para atraer y dirigir la atención de un niño sordo, los cuidadores pueden romper su línea de la mirada con movimientos de la mano y el cuerpo, tocar y señalar para permitir la entrada de lenguaje. Para resaltar el lenguaje, los padres deben usar oraciones cortas y sencillas para que la atención del niño no tenga que dividirse por mucho tiempo. Finalmente, para reducir la necesidad de atención dividida, un cuidador puede posicionarse y posicionar objetos dentro del campo visual del niño para que el lenguaje y el objeto se puedan ver al mismo tiempo.

Discurso y métodos orales.[editar]

Para los niños sordos que usan la escucha y el lenguaje hablado como su principal modo de comunicación, sus familias a menudo participan en terapia auditiva-verbal, un medio para mejorar el lenguaje innato y las habilidades de escucha de los niños sordos. La mayoría de los niños que reciben una amplificación adecuada antes de los 18 meses de edad y reciben instrucción auditiva-verbal adecuada seguirán las trayectorias de aprendizaje de sus compañeros que tienen una audición típica.[26]

Firma y métodos manuales.[editar]

ASL (lenguaje de señas americano)[editar]

ASL emplea signos hechos al mover las manos junto con las expresiones faciales y el lenguaje corporal. Algunos estudios indican que si un niño sordo aprende lenguaje de señas, tendrá menos probabilidades de aprender idiomas hablados porque perderán la motivación.[cita requerida] Sin embargo, Humphries insiste en que no hay evidencia de esto.[27]

Inglés codificado manualmente[editar]

El inglés codificado manualmente es una de varias representaciones diferentes del idioma inglés que usa signos manuales para codificar palabras en inglés visualmente. Aunque MCE usa signos, no es un lenguaje como ASL; es una codificación de inglés que utiliza gestos con las manos para hacer que el inglés sea visible en modo visual. La mayoría de los tipos de MCE usan signos prestados o adaptados del lenguaje de señas estadounidense, pero usan el orden de las oraciones en inglés y la construcción gramatical.

Se han propuesto y utilizado numerosos sistemas de codificación manual en inglés con mayor o menor éxito. Métodos como Signed English, Signing Exact English,[28]​ Linguistics of Visual English, y otros utilizan signos tomados de ASL junto con varios signos marcadores gramaticales, para indicar palabras completas, o morfemas con significado como -ed o -ing.

Debido a que los sistemas MCE son codificaciones de inglés que siguen el orden de las palabras y la estructura de las oraciones en inglés, es posible firmar MCE y hablar inglés al mismo tiempo. Esta es una técnica que se utiliza para enseñar a los niños sordos la estructura del idioma inglés, no solo a través de los patrones de sonido y de lectura de labios del inglés hablado, sino también a través de los patrones manuales del inglés firmado. Debido a la estrecha conexión entre los dos, es más fácil para las personas oyentes aprender MCE que ASL.[cita requerida]

Discurso de señas[editar]

Discurso de señas es un sistema de comunicación oral / manual híbrido utilizado por algunas personas sordas o con problemas de audición. Es una técnica que utiliza formas de mano cerca de la boca ("claves") para representar los fonemas que pueden ser difíciles para algunas personas sordas o con problemas de audición para distinguirse entre sí mediante la lectura del habla ("lectura de labios") solo. Está diseñado para ayudar a los comunicadores receptivos a observar y comprender completamente al hablante.

El habla con voz no es un lenguaje firmado y no tiene ningún signo en común con ASL. Es un tipo de lectura aumentada del habla, que hace que la lectura sea mucho más precisa y accesible para las personas sordas. Las formas de mano por sí mismas no tienen significado; solo tienen un significado como una señal en combinación con una forma de boca, de modo que la forma de la boca 'dos labios juntos' más una forma de mano podría significar un sonido 'M', la misma forma con una señal diferente podría representar un sonido 'B', y con una tercera señal podría representar un sonido 'P'.

Algunas investigaciones muestran un vínculo entre la falta de conciencia fonológica y los trastornos de la lectura, e indican que la enseñanza del habla con claves puede ser una ayuda para la conciencia fonológica y la alfabetización.[29]

Digitación[editar]

Otro sistema de codificación manual utilizado por los sordos y que ha existido durante más de dos siglos es el deletreado. Fingerspelling es un sistema que codifica letras y no palabras o morfemas, por lo que no es una codificación manual del inglés, sino una codificación del alfabeto. Como tal, es un método para deletrear palabras una letra a la vez usando 26 formas de mano diferentes. En los Estados Unidos y en muchos otros países, las letras se indican en una mano[30]​ y se remontan a la escuela de sordos del Abbe de l'Epee en París. Dado que la escritura con el dedo está conectada al alfabeto y no a palabras completas, se puede usar para deletrear palabras en cualquier idioma que use el mismo alfabeto; por lo tanto, no está vinculado a ningún idioma en particular, y en esa medida, es análogo a otras codificaciones de letras, como el código Morse o el Semáforo. El método de Rochester se basa en gran medida en el uso de los dedos, pero es lento y en su mayoría ha caído en desgracia.[cita requerida]

Métodos híbridos[editar]

Los métodos híbridos utilizan una mezcla de métodos auditivos / orales, así como algunos indicadores visibles, como las formas de las manos, para comunicarse en el lenguaje hablado estándar al hacer que partes de él sean visibles para las personas con pérdida auditiva.

Leyendo[editar]

Según Goldin-Meadow, la lectura requiere dos habilidades esenciales: familiaridad con un idioma y comprensión del mapeo entre ese idioma y la palabra escrita. Sin embargo, la lectura es posible si los niños sordos aprenden ASL. Una vez que han adquirido el ASL, los niños sordos aprenden cómo hacer un mapa entre el lenguaje de señas y la letra impresa para que puedan aprender inglés. Se utilizan varias técnicas para ayudar a cerrar la brecha entre ASL y el lenguaje hablado o el "proceso de traducción", como emparedado y encadenamiento.

El emparedado consiste en alternar entre decir la palabra y firmarla. El encadenamiento consiste en escribir con el dedo una palabra, apuntar a la versión de la palabra hablada y usar el soporte pictórico. Aunque el encadenamiento no se usa ampliamente, crea un entendimiento entre la ortografía visual de una palabra y la ortografía de la palabra en el lenguaje de señas. Esto ayuda al niño a convertirse en bilingüe tanto en ASL como en el lenguaje hablado.

El contexto social del niño sordo es crucial para nutrir su capacidad de leer. Las investigaciones muestran que los niños sordos nacidos de padres sordos suelen ser mejores lectores que los niños sordos nacidos de padres oyentes.[cita requerida] Esto se debe a que los padres sordos proporcionan una sólida red social y emocional y pueden tener acceso de inmediato a los recursos necesarios para su hijo. Los padres sordos ya anticipan las necesidades de su hijo, después de haber pasado por la misma experiencia, a diferencia de los padres oyentes.[cita requerida]


Referencias[editar]

  1. a b Bradham, Tamala; Jones, Julibeth (July 2008). «Cochlear implant candidacy in the United States: Prevalence in children 12 months to 6 years of age». International Journal of Pediatric Otorhinolaryngology 72 (7): 1023-1028. doi:10.1016/j.ijporl.2008.03.005. Consultado el 27 de noviembre de 2016. 
  2. a b Hyde, M.; Punch, R.; Komesaroff, L. (1 de marzo de 2010). «Coming to a Decision About Cochlear Implantation: Parents Making Choices for their Deaf Children». Journal of Deaf Studies and Deaf Education (en inglés) 15 (2): 162-178. ISSN 1081-4159. doi:10.1093/deafed/enq004. 
  3. a b c Kuhl, Patricia (2007). «Cracking the speech code: How infants learn language». Acoustical Science and Technology 28: 81. 
  4. Werker, Janet F.; Hensch, Takao K. (3 de enero de 2015). «Critical Periods in Speech Perception: New Directions». Annual Review of Psychology 66 (1): 174. ISSN 0066-4308. doi:10.1146/annurev-psych-010814-015104. 
  5. a b Humphries, Tom; Kushalnagar, Poorna; Mathur, Gaurav; Napoli, Donna Jo; Padden, Carol; Rathmann, Christian; Smith, Scott R. (2 de abril de 2012). «Language acquisition for deaf children: Reducing the harms of zero tolerance to the use of alternative approaches». Harm Reduction Journal 9: 2-3. ISSN 1477-7517. doi:10.1186/1477-7517-9-16. 
  6. Woolfe, Tyron; Herman, Rosalind; Roy, Penny; Woll, Bencie (1 de marzo de 2010). «Early vocabulary development in deaf native signers: a British Sign Language adaptation of the communicative development inventories». Journal of Child Psychology and Psychiatry (en inglés) 51 (3): 329-330. ISSN 1469-7610. doi:10.1111/j.1469-7610.2009.02151.x. 
  7. Pfau, Roland; Steinbach, Markus; Woll, Bencie (2012). Sign Language : An International Handbook. Berlin: De Gruyter Mouton. p. 677. ISBN 978-3-11-020421-6. 
  8. a b Mitchell, Ross E.; Karchmer, Michaela (2004). «Chasing the Mythical Ten Percent: Parental Hearing Status of Deaf and Hard of Hearing Students in the United States». Sign Language Studies (Gallaudet University Press) 4 (2): 138-163. ISSN 0302-1475. JSTOR 26190985. 
  9. a b c Humphries, Tom; Kushalnagar, Poorna; Mathur, Gaurav; Napoli, Donna Jo; Padden, Carol; Rathmann, Christian (21 de junio de 2014). «Ensuring language acquisition for deaf children: What linguists can do». Language (en inglés) 90 (2): e31-e52. ISSN 1535-0665. doi:10.1353/lan.2014.0036. 
  10. Marschark, Marc; Spencer, Patricia (2010). The Oxford handbook of deaf studies, language, and education.. New York: Oxford University Press. p. 284. ISBN 9780195390032. OCLC 607613491. 
  11. Brentari, Diane (2012). Sign Languages (en inglés). Cambridge, UK: Cambridge University Press. p. 24. ISBN 9780521883702. doi:10.1017/cbo9780511712203. 
  12. Dettman, Shani Joy; Dowell, Richard Charles; Choo, Dawn; Arnott, Wendy; Abrahams, Yetta; Davis, Aleisha; Dornan, Dimity; Leigh, Jaime et al. (February 2016). «Long-term Communication Outcomes for Children Receiving Cochlear Implants Younger Than 12 Months: A Multicenter Study». Otology & Neurotology (en inglés estadounidense) 37 (2): e82. ISSN 1531-7129. doi:10.1097/MAO.0000000000000915. 
  13. a b Levine, Dani; Strother-Garcia, Kristina; Golinkoff, Roberta Michnick; Hirsh-Pasek, Kathy (1 de febrero de 2016). «Language Development in the First Year of Life». Otology & Neurotology (en eNGLISH) 37 (2): e56-e62. ISSN 1531-7129. doi:10.1097/mao.0000000000000908. 
  14. a b Pfau, Roland; Steinbach, Markus; Woll, Bencie (2012). Sign language : An international handbook. Berlin: De Gruyter Mouton. p. 647. ISBN 9783110204216. OCLC 812574063. 
  15. Petitto, Laura Ann; Marentette, P (1991). «Babbling in the manual mode: Evidence for the ontogeny of language». Science 251: 483-1496. PMID 2006424. 
  16. a b Stone, Adam; Petitto, Laura Ann; Bosworth, Rain (December 2017). «Visual Sonority Modulates Infants’ Attraction to Sign Language». Language Learning and Development: 1-19. Archivado desde el original el 12 de julio de 2018. Consultado el 11 de noviembre de 2018. 
  17. a b Petitto, Laura Ann; Zatorre, Robert J.; Gauna, Kristine; Nikelski, E. J.; Dostie, Deanna; Evans, Alan C. (5 de diciembre de 2000). «Speech-like cerebral activity in profoundly deaf people processing signed languages: Implications for the neural basis of human language». Proceedings of the National Academy of Sciences (en inglés) 97 (25): 13961-13966. ISSN 0027-8424. PMC 17683. PMID 11106400. doi:10.1073/pnas.97.25.13961. 
  18. Brentari, Diane; González, Carolina; Seidl, Amanda; Wilbur, Ronnie (January 2011). «Sensitivity to Visual Prosodic Cues in Signers and Nonsigners». Language and Speech 54: 57-61. 
  19. Krentz, Ursula C.; Corina, David P. (1 de enero de 2008). «Preference for language in early infancy: the human language bias is not speech specific». Developmental Science (en inglés) 11 (1): 1-9. ISSN 1467-7687. doi:10.1111/j.1467-7687.2007.00652.x. 
  20. a b MacSweeney, Mairéad; Waters, Dafydd; Brammer, Michael J.; Woll, Bencie; Goswami, Usha. «Phonological processing in deaf signers and the impact of age of first language acquisition». NeuroImage 40 (3): 1369-1379. doi:10.1016/j.neuroimage.2007.12.047. 
  21. Marschark, Mark; Schick, Brenda; Spencer, Patricia (2006). Understanding sign language development of deaf children. Oxford, UK: Oxford University Press. pp. 12-16. ISBN 0-19-518094-1. 
  22. Spencer, Patricia; Harris, Margaret (2006). «Patterns and effects of language input to deaf infants and toddlers from deaf and hearing mothers». Advances in the sign language development of deaf children: 71-101. 
  23. Harris, M. (1 de julio de 2001). «It's All a Matter of Timing: Sign Visibility and Sign Reference in Deaf and Hearing Mothers of 18-Month-Old Children». Journal of Deaf Studies and Deaf Education (en inglés) 6 (3): 177-185. ISSN 1081-4159. doi:10.1093/deafed/6.3.177. 
  24. a b c Pizer, Meier, G, R (2008). «Pizer, G., & Meier, R. P. (2008). Child-directed signing in ASL and children’s development of joint attention.». Sign languages: Spinning and unraveling the past, present and future: TISLR9, forty five papers and three posters from the 9th Theoretical Issues in Sign Language Research Conference: 459-474. 
  25. Meadow-Orlans, Kathryn P. (1 de enero de 1997). «Effects of Mother and Infant Hearing Status on Interactions at Twelve and Eighteen Months». The Journal of Deaf Studies and Deaf Education (en inglés) 2 (1): 26-36. ISSN 1081-4159. doi:10.1093/oxfordjournals.deafed.a014307. 
  26. Niparko, John; Tobey, Emily; Thal, Donna (21 de abril de 2010). «Spoken Language Development in Children Following Cochlear Implantation». JAMA 303 (15): 1498-1506. PMC 3073449. doi:10.1001/jama.2010.451. 
  27. Humphries, Tom; Kushalnagar, Poorna; Mathur, Gaurav; Napoli, Donna Jo; Padden, Carol; Rathmann, Christian; Smith, Scott R. (1 de enero de 2012). «Language acquisition for deaf children: Reducing the harms of zero tolerance to the use of alternative approaches». Harm Reduction Journal 9: 16. ISSN 1477-7517. PMC 3384464. PMID 22472091. doi:10.1186/1477-7517-9-16. 
  28. Kong, W. W., & Ranganath, S. (2008). Signing exact english (see): Modeling and recognition. Pattern Recognition, 41(5), 1638-1652.
  29. Ostrander, Carolyn (1998). «The Relationship Between Phonological Coding And Reading Achievement In Deaf Children: Is Cued Speech A Special Case?». Archivado desde el original el 13 de noviembre de 2007. Consultado el 11 de febrero de 2018. 
  30. Carmel, Simon (1982). International hand alphabet charts. National Association of the Deaf (United States); 2nd edition. (June 1982). ISBN 0-9600886-2-8