Ir al contenido

Diferencia entre revisiones de «Rana el Kaliouby»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Creado al traducir la página «Rana el Kaliouby»
(Sin diferencias)

Revisión del 17:40 22 ago 2019

Rana el Kaliouby
Información personal
Nacimiento 1978 Ver y modificar los datos en Wikidata
El Cairo (Egipto) Ver y modificar los datos en Wikidata
Nacionalidad Egipcia
Lengua materna Árabe egipcio Ver y modificar los datos en Wikidata
Educación
Educada en
Información profesional
Ocupación Informática teórica Ver y modificar los datos en Wikidata
Empleador Affectiva Ver y modificar los datos en Wikidata
Sitio web
Distinciones

Rana el Kaliouby (1978) es una científica y empresaria egipcia-estadounidense en el campo de la investigación del reconocimiento de expresiones y el desarrollo tecnológico, que es un subconjunto de reconocimiento facial diseñado para identificar las emociones expresadas por la cara.[1]​ La investigación de El Kaliouby fue más allá de la dependencia del campo de expresiones exageradas o caricaturescas modeladas por actores de laboratorio, para centrarse en las miradas sutiles encontradas en situaciones reales. Es la cofundadora, con Rosalind Picard, y CEO de Affectiva.

Educación

El Kaliouby obtuvo una licenciatura y una maestría en ciencias de la Universidad Americana en El Cairo, luego un doctorado en Newnham College de la Universidad de Cambridge.

Carrera

El Kaliouby trabajó como científico investigador en el Instituto de Tecnología de Massachusetts, ayudando a fundar su Iniciativa de tecnología de comunicación y autismo.[2]​ Su objetivo original era mejorar la interacción humano-computadora, pero rápidamente quedó fascinada con la posibilidad de aplicar esta tecnología para mejorar la comunicación humano-humano, especialmente para las personas autistas, muchas de las cuales luchan con la comunicación emocional.[3]​ En el grupo de Computación afectiva del MIT Media Lab, formó parte de un equipo que fue pionero en el desarrollo del "audífono emocional",[4]​ un conjunto de anteojos portátiles para leer emociones que el New York Times incluyó en sus 100 principales innovaciones de 2006.[5]​ El Kaliouby demuestra su trabajo y es entrevistada en el documental de 2018 sobre inteligencia artificial Do You Trust This Computer?

El Kaliouby ha declarado que las computadoras, si bien son buenas con la información, se quedan cortas cuando se trata de determinar sentimientos, por lo que requieren indicaciones manuales para responder a las necesidades de un operador. Su trabajo radica principalmente en los sutiles cambios faciales que las personas tienden a hacer. Ella ha identificado 24 puntos de referencia en la cara, cada uno moviéndose de diferentes maneras, dependiendo de una emoción expresada.[6]​   [ <span title="This claim needs references to reliable sources. (November 2014)">cita requerida</span> ] Liderando el equipo de Ciencia de la Emoción de Affectiva;[7]​ la compañía aplica la visión por computadora, el aprendizaje automático y la ciencia de datos para aprovechar el repositorio de emociones faciales de la compañía, que dice que es el más grande del mundo con 2 millones de caras,[8]​ para comprender los sentimientos y comportamientos de las personas.

Premios y reconocimientos

El Kaliouby fue incluida en el Salón de la Fama de "Mujeres en Ingeniería".[9]​ También es miembro de ACM, IEEE, Asociación de Museos para Niños, Asociación Británica de Visión Artificial y Nahdet el Mahrousa. Otros premios incluyen:

  • 7 Women to Watch in 2014 - Entrepreneur Magazine[10]
  • Mass High Tech Top 20 Women to Watch 2014[11]
  • The Wired Smart List - Wired 2013[12]
  • MIT TR35 2012[13]
  • Smithsonian Magazine American Ingenuity Award en Tecnología[14]
  • Las 50 mejores mujeres de Forbes America en tecnología 2018[15]

Libros

El Kaliouby contribuyó con un capítulo al libro de 2018 Architects of Intelligence: The Truth About AI de People People it del futurista estadounidense Martin Ford.[16]

Referencias

  1. «MIT Technology Review 2012». Consultado el 30 July 2014. 
  2. «Archived copy». Archivado desde el original el 29 de noviembre de 2014. Consultado el 14 de noviembre de 2014. 
  3. «Autism Spectrum Disorder - Struggling with Communication». 
  4. El-Kaliouby, Rana; Robinson, Peter (1 de diciembre de 2005). «The emotional hearing aid: an assistive tool for children with Asperger syndrome». Universal Access in the Information Society 4 (2): 121-134. doi:10.1007/s10209-005-0119-0. 
  5. The Social-Cue Reader, New York Times Magazine December 12, 2006 [note: this article was their writeup on the innovation, but it does not actually make the statement that it got into their top 100. That's probably in some other article which we could do with a citation for. This may involve finding it in a library because it's no longer online. There are plenty of secondary-source statements out there that say this innovation got into their top 100, but it would be nice to be able to cite the list directly.]
  6. Karen Weintraub, "Teaching devices to tell a frown from a smile", Innovators Under 35, Date not specified.
  7. «Affectiva Company Team». Consultado el 9 November 2016. 
  8. «Affectiva builds world's largest emotion analytics repository with 2 million faces analyzed». 
  9. The Women in Engineering Hall of Fame
  10. «The 7 Most Powerful Women to Watch in 2014». 3 de enero de 2014. 
  11. http://www.bizjournals.com/boston/event/100331
  12. «The Wired Smart List 2013». Wired UK. 9 de diciembre de 2013. 
  13. «Innovators Under 35 2012». 
  14. «2015 American Ingenuity Award Winners». Smithsonian Magazine. Smithsonian. Consultado el 12 October 2018. 
  15. Helen A. S. Popkin with Lauren Aratani and Samar Marwan, ed. (29 November 2018). «Rana el Kaliouby». Forbes. Consultado el 3 December 2018. 
  16. Falcon, William (November 30, 2018). «This Is The Future Of AI According To 23 World-Leading AI Experts». Consultado el March 20, 2019. 

Enlaces externos

  1. Eisenberg, Anne (30 de noviembre de 2013). «When Algorithms Grow Accustomed to Your Face». 
  2. http://www.inc.com/audacious-companies/april-joyner/affectiva.html
  3. «The New Face of AdTech Goes Consumer: Emotion Tracker Affectiva Gets $12M from KPCB, Horizon». 
  4. «Does Your Phone Know How Happy You Are? The Emotion-Recognition Industry Comes Giddily of Age». 7 de junio de 2012.