Watson (inteligencia artificial)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Watson es un sistema informático de inteligencia artificial que es capaz de responder a preguntas formuladas en lenguaje natural,[1] desarrollado por la corporación estadounidense IBM. Forma parte del proyecto del equipo de investigación DeepQA, liderado por el investigador principal David Ferrucci. Lleva su nombre en honor del fundador y primer presidente de IBM, Thomas J. Watson.[2] [3]

Watson responde a las preguntas gracias a una base de datos almacenada localmente.[4] La información contenida en ese base de datos proviene de multitud de fuentes, incluyendo enciclopedias, diccionarios, tesauros, artículos de noticias, y obras literarias, al igual que bases de datos externos, taxonomías, y ontologías (específicamente DBpedia, WordNet, y Yago).[5]

A lo largo de tres días en febrero de 2011, para probar sus capacidades reales, participó en un partido especial de dos juegos en el concurso de televisión estadounidense Jeopardy!, derrotando a sus dos oponentes humanos: Brad Rutter, el mayor ganador de dinero en toda la historia del programa, y Ken Jennings, el poseedor del récord por la racha más larga de campeonatos (después de haber ganado 75 partidos).[6] [7] Watson recibió el primer premio de $1.000.000, mientras Ken Jennings y Brad Rutter recibieron $300.000 y $200.000, respectivamente. Tanto Jennings como Rutter prometieron donar la mitad de sus ganancias respectivas a sus caridades seleccionadas (Jennings elegió VillageReach, y Rutter elegió Lancaster County Community Foundation),[8] mientras IBM dividió las ganancias de Watson entre dos caridades (World Vision y World Community Grid).[9]

Watson consistentemente superó a sus oponentes humanos en el dispositivo de señalización empleado por el juego, pero tuvo problemas en responder a unas pocas categorías, notablemente las compuestas de pistas cortas con pocas palabras. Para cada pista, las respuestas más probables de Watson fueron mostradas por la pantalla de televisión. Watson tuvo acceso a 200.000.000 páginas de contenido, estructurado y no estructurado, que consumió cuatro terabytes de almacenamiento en disco,[10] incluyendo el texto completo de la Wikipedia en inglés.[11] Watson no fue conectado al Internet durante el juego.[12] [13]

Arquitectura del sistema[editar]

La arquitectura de alto nivel empleada por la tecnología DeepQA, que IBM utilizó específicamente para Watson.[14]

Watson es un sistema informático para búsqueda de respuestas (question answering en inglés), desarrollado por IBM.[1] La corporación lo describe como "una aplicación de tecnologías avanzadas diseñadas para el procesamiento de lenguajes naturales, la recuperación de información, la representación del conocimiento, el razonamiento automático, y el aprendizaje automático al campo abierto de búsquedas de respuestas," que es "construido en la tecnología DeepQA de IBM para la generación de hipótesis, la recopilación de pruebas masivas, el análisis y la calificación."[1]

Según IBM, Watson es un sistema optimizado para trabajo que se diseña para analítica compleja, que se hace posible por la integración de procesadores masivamente paralelos de POWER7 y el software DeepQA desarrollado por la corporación. Su soporte de hardware para la competición en Jeopardy! comprendía dos unidades con 5 bastidores de nodos controladores, con noventa servidores IBM POWER 750, cada servidor utilizando un procesador de 3.5 GHz con 8 núcleos, donde cada núcleo soporta por hardware 4 hilos de ejecución (threads en inglés). El sistema cuenta con un total de 2880 núcleos de procesamiento POWER7, y un total de 16 Terabytes de RAM.[15] El hecho de que el procesador POWER7 es capaz de procesar en una manera masivamente paralela lo convierte en un complemento ideal para el software DeepQA integrado en Watson por IBM, que es embarazosamente paralelo (es decir, un trabajo que es fácilmente dividido en múltiples tareas paralelas.)[16]

Según John Rennie, Watson puede procesar 500 giga bytes por segundo (el equivalente de un millón de libros).[17] El inventor principal y consultor senior de IBM, Tony Pearson, estimó que el costo total del hardware para Watson fue de cerca de $3.000.000.[18] Rennie ha declarado que el contenido de Watson fue almacenado en su RAM para el juego, porque los datos almacenados en discos duros son demasiado lentos para acceder.[17]

El software incorporado en Watson fue escrito de acuerdo con dos secuencias de comandos (Java y C++), y usa dos estructuras empleadas por la Apache Software Foundation — la estructura Hadoop para computación distribuida, y el sistema UIMA (Unstructured Information Management Architecture) para análisis de materiales impresos — así como el software DeepQA desarrollado por IBM y el sistema operativo SUSE Linux Enterprise Server 11.[10] [19] [20] Según IBM, Watson usa más de 100 técnicas diferentes para analizar el lenguaje natural, identificar fuentes, encontrar y generar hipótesis, buscar y puntuar evidencias, combinar y clasificar hipótesis.[21]

Operación[editar]

Para cumplir con el requisito principal para todos los concursantes de Jeopardy!, Watson estaba obligado a esperar hasta que el presentador, Alex Trebek, leyera cada pista en su totalidad, y en ese momento, una luz se encendía como una señal para indicar que el sistema está listo. El primer concursante que activa el botón en su zumbador gana la oportunidad de responder.[13] [22] Watson recibió las pistas en forma de textos electrónicos al mismo tiempo en que las mismas fueron puestas a disposición de los participantes humanos.[13] Luego analizaría las pistas en diferentes palabras clave y fragmentos de oración para encontrar frases estadísticamente relacionadas.[13] La innovación principal de Watson no fue en la creación de un nuevo algoritmo para esta operación, sino más bien en su capacidad de ejecutar rápidamente miles de algoritmos probados para análisis del lenguaje natural al mismo tiempo para encontrar la respuesta correcta.[13] [23] La probabilidad de la corrección de Watson se mide por el número de algoritmos que encuentran la misma respuesta independientemente.[13] Una vez que Watson tiene un número pequeño de soluciones posibles, es capaz de hacer comparaciones con su base de datos para determinar si la solución tiene sentido.[13] En una secuencia de 20 simulacros, los participantes humanos fueron capaces de usar el tiempo medio de seis o siete segundos que Watson necesitó para escuchar la pista y decidir si querían señalar una respuesta.[13] Durante ese tiempo, Watson también debe evaluar la respuesta y determinar si el resultado es correcto de una manera suficiente para señalar.[13] Una parte del sistema usado por Watson para ganar el concurso fueron los circuitos electrónicos que recibieron la señal "listo" y luego examinaron si el nivel de confianza de Watson fue suficientemente grande para activar el zumbador. Debido a la velocidad de estos circuitos en comparación con la velocidad de los tiempos en que los seres humanos son capaces de responder, el tiempo de reacción de Watson fue más rápido que el de los concursantes humanos excepto cuando los humanos anticiparon (en vez de reaccionar a) la señal "listo."[24] Después de la señalización, Watson habló con una voz electrónica, sintetizada a partir de grabaciones hechas por Jeff Woodman para un programa de texto a voz desarrollado por IBM en 2004,[25] dando las respuestas en el formato de "respuesta y pregunta" asociado con Jeopardy![13]

Historia[editar]

Demostración de Watson desde una cabina de IBM en una demostración comercial.

Las circunstancias que condujeron al desarrollo de Watson se remontan a la victoria de la computadora Deep Blue sobre Gari Kaspárov, un Gran Maestro Internacional del ajedrez, en el 11 de mayo de 1997. Desde entonces, IBM se encontraba en la búsqueda de un desafío nuevo, y en 2004, Charles Lickel, el gerente de investigaciones de IBM, había encontrado uno cuando vio la racha ganadora de Ken Jennings en Jeopardy! mientras cenaba en un restaurante con sus compañeros de trabajo. Intrigado por la posibilidad de la utilización del concurso como un desafío para IBM, Lickel presentó la idea, y en 2005 Paul Horn, el ejecutivo de investigación de IBM, apoyó a Lickel en persuadir a uno de los miembros de su departamento para asumir el desafío de jugar a Jeopardy! con un sistema de IBM. A pesar de que inicialmente tuvo problemas en encontrar miembros de su equipo de investigación que estuvieran dispuestos a asumir lo que parecía ser un desafío mucho más complejo que el juego de ajedrez, eventualmente David Ferrucci aceptó la oferta.[26] Watson fue precedido por un sistema llamado "Piquant," que participó en competiciones logradas por el gobierno de los Estados Unidos, donde fue capaz de responder correctamente sólo un 35 por ciento de la cantidad total de pistas en el juego, y generalmente requirió varios minutos para responder.[27] [28] [29] Para competir en Jeopardy! con éxito, Watson necesitaría responder en un máximo de pocos segundos, y en ese tiempo, los problemas planteados en el concurso fueron considerados como imposibles de resolver.[13]

En pruebas iniciales conducidas durante el año 2006 por David Ferucci, gerente del Departamento de Análisis e Integración Semántica de IBM, se le proporcionó a Watson 500 pistas de episodios pasados de Jeopardy! Aunque los mejores concursantes humanos fueron capaces de responder correctamente a un máximo del 95 por ciento de las pistas, en su primera prueba Watson fue capaz de responder correctamente a sólo un 15 por ciento de las pistas. Durante 2007, el equipo se dio de tres a cinco años y un equipo de 15 personas para resolver los problemas.[13] En 2008, los desarrolladores habían avanzado mucho, hasta tal punto que Watson fue capaz de competir con campeones de Jeopardy!.[13] En febrero de 2010, Watson derrotaba a campeones de Jeopardy! de manera regular.[30]

Watson era principalmente un esfuerzo de IBM, pero su equipo de desarrollo incluye profesores y estudiantes de la Universidad Carnegie Mellon, la Universidad de Massachusetts en Amherst, el Instituto para Ciencias de Información de la Universidad del Sur de California, la Universidad de Texas en Austin, el Instituto Tecnológico de Massachusetts, la Universidad de Trento, y el Instituto Politécnico Rensselaer.[14]

En 2008, los representantes de IBM se comunicaron con Harry Friedman, el productor ejecutivo de Jeopardy!, sobre la posibilidad de una competición entre Watson y dos de los concursantes más exitosos del programa (Ken Jennings y Brad Rutter). Friedman estaba de acuerdo con esa decisión.[13] [31] Las diferencias entre Watson y los concursantes humanos habían generado conflictos entre IBM y el personal de Jeopardy! durante la planificación de la competición.[32] IBM repetidamente expresó preocupaciones concernientes a que los guionistas del programa explotaran las deficiencias cognitivas de Watson al escribir las pistas y, de este modo, convirtieran el concurso en un test de Turing. Para soslayar esta preocupación, un tercero eligió aleatoriamente las pistas de programas previamente escritos que no habían sido emitidos.[32] El personal de Jeopardy! también expresó preocupaciones por el tiempo de reacción con el zumbador. Watson originalmente señaló por vía electrónica, pero el personal del programa pidió que el sistema pulse el botón físicamente, como los concursantes humanos.[33] Sin embargo, Watson fue capaz de ser más rápido que sus competidores humanos, aún con su dedo robótico.

Para preparar a Watson para su competición, IBM construyó un simulacro del plató de Jeopardy! en una sala de conferencias en uno de sus sitios de tecnología. Concursantes humanos, incluyendo concursantes anteriores de Jeopardy!, también participaron en simulacros del concurso, presentados por Todd Alan Crain de The Onion.[13] Alrededor de 100 simulacros fueron conducidos, con Watson ganando un 65 por ciento de los partidos.[34]

Los partidos oficiales fueron grabados en enero de 2011, y emitidos el siguiente mes.

Usos en el futuro[editar]

Según IBM, el objetivo para Watson es permitir que las computadoras comiencen a interactuar de forma natural con humanos a través de una amplia gama de aplicaciones y procesos, comprendiendo las preguntas de los seres humanos y dando respuestas que los seres humanos pueden comprender y justificar.[30]

IBM y Nuance Communications Inc. se han unido para el proyecto de investigación para desarrollar un producto comercial durante los próximos 18 a 24 meses que explotará las capacidades de Watson como sistema de apoyo para decisiones clínicas para ayudar al diagnóstico y tratamiento médico de pacientes. Los médicos de la Universidad de Columbia están ayudando a identificar problemas críticos en la práctica de medicina donde la tecnología de Watson puede ser capaz de contribuir, y los médicos de la Universidad de Maryland están trabajando para identificar la mejor manera en que un sistema tecnológico como Watson podría interactuar con los médicos para proporcionar la máxima asistencia.[35] También se ha sugerido por Robert C. Weber, el consejero general de IBM, que Watson se puede utilizar para investigaciones legales.[36]

Watson se basa en servidores comercialmente disponibles con la marca "IBM Power 750" comercializados desde febrero de 2010. IBM también tiene la intención de comercializar el software DeepQA a corporaciones grandes, a un precio de millones de dólares, lo cual refleja el precio necesario de un millón de dólares para adquirir un servidor que cumpla con los requisitos mínimos para operar Watson. IBM espera que el precio disminuirá considerablemente dentro de una década cuando la tecnología mejore.[13]

Implicaciones para inteligencia artificial[editar]

El filósofo John Searle sostiene que Watson, a pesar de las capacidades impresionantes, no puede pensar en realidad.[37] A partir de su famoso experimento de pensamiento "habitación china," Searle afirma que Watson, al igual que otras máquinas de computación, sólo es capaz de manipular símbolos, pero no tiene capacidad para entender el significado de esos símbolos.[37]

Véase también[editar]

Referencias[editar]

  1. a b c DeepQA Project: FAQ, IBM Corporation, http://www.research.ibm.com/deepqa/faq.shtml, consultado el 11-02-2011 
  2. Hale, Mike (08-02-2011), Actors and Their Roles for $300, HAL? HAL!, The New York Times, http://www.nytimes.com/2011/02/09/arts/television/09nova.html 
  3. The DeepQA Project, Research.ibm.com, http://www.research.ibm.com/deepqa/deepqa.shtml, consultado el 18-02-2011 
  4. «Video Que es ‘Watson’ en ingles
  5. http://www.aaai.org/Magazine/Watson/watson.php
  6. Markoff, John (26-04-2009), «Computer Program to Take On 'Jeopardy!'», The New York Times, http://www.nytimes.com/2009/04/27/technology/27jeopardy.html, consultado el 27-04-2009 
  7. Loftus, Jack (26-04-2009), IBM Prepping Soul-Crushing 'Watson' Computer to Compete on Jeopardy!, Gizmodo, http://gizmodo.com/#!5228887/ibm-prepping-soul+crushing-watson-computer-to-compete-on-jeopardy, consultado el 27-04-2009 
  8. Jeopardy! And IBM Announce Charities To Benefit From Watson Competition, IBM Corporation, 13-01-2011, http://www-03.ibm.com/press/us/en/pressrelease/33373.wss, consultado el 19-02-2011 
  9. World Community Grid to benefit from Jeopardy! competition, World Community Grid, 04-02-2011, http://www.worldcommunitygrid.org/about_us/viewNewsArticle.do?articleId=148, consultado el 19-02-2011 
  10. a b Jackson, Joab (17-02-2011), IBM Watson Vanquishes Human Jeopardy Foes, PC World, http://www.pcworld.com/businesscenter/article/219893/ibm_watson_vanquishes_human_jeopardy_foes.html, consultado el 17-02-2011 
  11. Zimmer, Ben (17-02-2011), Is It Time to Welcome Our New Computer Overlords?, The Atlantic, http://www.theatlantic.com/technology/archive/2011/02/is-it-time-to-welcome-our-new-computer-overlords/71388/, consultado el 17-02-2011 
  12. Raz, Guy (28-01-2011), Can a Computer Become a Jeopardy! Champ?, National Public Radio, http://www.npr.org/2011/01/08/132769575/Can-A-Computer-Become-A-Jeopardy-Champ, consultado el 18-02-2011 
  13. a b c d e f g h i j k l m n ñ o Thompson, Clive (16-06-2010). «Smarter Than You Think: What Is I.B.M.’s Watson?». The New York Times Magazine. Consultado el 18-02-2011.
  14. a b Ferrucci, D., et al. (2010), Building Watson: An Overview of the DeepQA Project, 31, AI Magazine, http://www.stanford.edu/class/cs124/AIMagzine-DeepQA.pdf 
  15. FAQs sobre Watson (en ingles)
  16. Is Watson the smartest machine on earth?, Computer Science and Electrical Engineering Department, UMBC, 10-02-2011, http://www.cs.umbc.edu/2011/02/is-watson-the-smartest-machine-on-earth/, consultado el 11-02-2011 
  17. a b Rennie, John (14-02-2011), How IBM’s Watson Computer Excels at Jeopardy!, PLoS blogs, http://blogs.plos.org/retort/2011/02/14/how-ibm%E2%80%99s-watson-computer-will-excel-at-jeopardy/, consultado el 19-02-2011 
  18. Lucas, Mearian (21-02-2011), Can anyone afford an IBM Watson supercomputer? (Yes), Computerworld, http://www.computerworld.com/s/article/9210381/Can_anyone_afford_an_IBM_Watson_supercomputer_Yes_?taxonomyId=67&pageNumber=2, consultado el 21-02-2011 
  19. Takahashi, Dean (17-02-2011), IBM researcher explains what Watson gets right and wrong, VentureBeat, http://venturebeat.com/2011/02/17/ibm-researcher-explains-what-watson-gets-right-and-wrong/, consultado el 18-02-2011 
  20. Novell (02-02-2011), Watson Supercomputer to Compete on 'Jeopardy!' -- Powered by SUSE Linux Enterprise Server on IBM POWER7, The Wall Street Journal, http://online.wsj.com/article/PR-CO-20110202-906855.html, consultado el 21-02-2011 
  21. Watson – A System Designed for Answers
  22. Libresco, Leah Anthony (21-02-2011), A Non-Trivial Advantage for Watson, The Huffington Post, http://www.huffingtonpost.com/leah-anthony-libresco/a-nontrivial-advantage-fo_b_825837.html, consultado el 21-02-2011 
  23. «Will Watson Win On Jeopardy?», Nova ScienceNOW (Public Broadcasting Service), 20-01-2011, http://www.pbs.org/wgbh/nova/tech/will-watson-win-jeopardy.html, consultado el 27-01-2011 
  24. Gondek, David (10-01-2011), «How Watson "sees," "hears," and "speaks" to play Jeopardy!», IBM Research blog (IBM), http://ibmresearchnews.blogspot.com/2010/12/how-watson-sees-hears-and-speaks-to.html, consultado el 21-02-2011 
  25. Avery, Lise (14-02-2011), «Actor Jeff Woodman, Voice of IBM's Watson Computer» (MP3), Anything Goes!!, http://www.anythinggoesradio.com/Interviews/JeffWoodman_02_14_11.MP3, consultado el 15-02-2011  (entrevista de Jeff Woodman)
  26. Baker, Stephen (2011). Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Boston, Nueva York: Houghton Mifflin Harcourt. pp. 6–8. ISBN 0547483163. 
  27. Baker, Stephen (2011). Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Boston, Nueva York: Houghton Mifflin Harcourt. p. 30. ISBN 0547483163. 
  28. Radev, Dragomir R. (2000). «Ranking potential answers to natural language questions». Proceedings of the 6th Conference on Applied Natural Language Processing.
  29. Prager, John (Julio de 2000). «Question-answering by predictive annotation». Proceedings, 23rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval.
  30. a b Brodkin, Jon (10-02-2010), IBM's Jeopardy-playing machine can now beat human contestants, Network World, http://www.networkworld.com/news/2010/021010-ibm-jeopardy-game.html?hpg1=bn, consultado el 19-02-2011 
  31. Stelter, Brian (14-12-2010), I.B.M. Supercomputer 'Watson' to Challenge 'Jeopardy' Stars, The New York Times, http://mediadecoder.blogs.nytimes.com/2010/12/14/i-b-m-supercomputer-watson-to-challenge-jeopardy-stars/, consultado el 14-12-2010, «An I.B.M. supercomputer system named after the company's founder, Thomas J. Watson Sr., is almost ready for a televised test: a bout of questioning on the quiz show "Jeopardy." I.B.M. and the producers of "Jeopardy" will announce on Tuesday that the computer, "Watson," will face the two most successful players in "Jeopardy" history, Ken Jennings and Brad Rutter, in three episodes that will be broadcast Feb. 14–16, 2011.» 
  32. a b Needleman, Rafe (18-02-2011), Reporters' Roundtable: Debating the robobrains, CNET, http://chkpt.zdnet.com/chkpt/1pcast.roundtable/http://podcast-files.cnet.com/podcast/cnet_roundtable_021811.mp3, consultado el 18-02-2011 
  33. Baker, Stephen (2011). Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Boston, Nueva York: Houghton Mifflin Harcourt. p. 171. ISBN 0547483163. 
  34. Sostek, Anya (13-02-2011), Human champs of 'Jeopardy!' vs. Watson the IBM computer: a close match, Pittsburgh Post Gazette, http://www.post-gazette.com/pg/11044/1125163-96.stm, consultado el 19-02-2011 
  35. Wakeman, Nick (17-02-2011), IBM's Watson heads to medical school, Washington Technology, http://washingtontechnology.com/articles/2011/02/17/ibm-watson-next-steps.aspx, consultado el 19-02-2011 
  36. Weber, Robert C. (14-02-2011), Why 'Watson' matters to lawyers, The National Law Journal, http://www.law.com/jsp/nlj/PubArticleNLJ.jsp?id=1202481662966&slreturn=1&hbxlogin=1, consultado el 18-02-2011 
  37. a b Searle, John (23-02-2011), Watson Doesn't Know It Won on 'Jeopardy!', Wall Street Journal, http://online.wsj.com/article/SB10001424052748703407304576154313126987674.html, consultado el 26-07-2011 

Enlaces externos[editar]