Ir al contenido

Instituto de Investigación de la Inteligencia de las Máquinas

De Wikipedia, la enciclopedia libre
Instituto de Investigación de la Inteligencia de las Máquinas
Tipo Sin ánimo de lucro, Instituto de investigación
Forma legal 501(c)(3) Exenta de impuestos Asociación caritativa
Objetivos Investigación en inteligencia artificial amistosa
Fundación 2000[1]
Fundador Eliezer Yudkowsky
Sede central Berkeley, California
Presidente del consejo Edwin Evans
Personas clave Eliezer Yudkowsky
Ingresos $1,7 million (2013)[2]
Sitio web intelligence.org

El Instituto de Investigación de la Inteligencia de las Máquinas (de la sigla en inglés MIRI), anteriormente el Instituto de la Singularidad para la Inteligencia Artificial (SIAI), es una organización sin fines de lucro fundada en 2000[1]​ para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte. Nate Soares es el director ejecutivo, habiendo tomado el control de Luke Muehlhauser en mayo de 2015.[3]

La agenda técnica de MIRI establece que se necesitan nuevas herramientas formales para asegurar la operación segura de las futuras generaciones de software de IA (inteligencia artificial amigable).[4]

La organización organiza talleres de investigación regulares para desarrollar bases matemáticas para este proyecto,[5]​ y ha sido citado como uno de varios grupos académicos y sin fines de lucro que estudian los resultados de la IA a largo plazo.[6][7][8]

El peligro potencial de las máquinas inteligentes para con los seres humanos, es una preocupación creciente de científicos y especialistas en robótica. Según una investigación publicada por el Instituto MIRI, la solución de Google en el caso que la IA amenace la existencia de los seres humanos, consiste en un "botón rojo de emergencia", que sería capaz de "apagar" toda la inteligencia artificial.[9]

Referencias

[editar]
  1. a b «Transparency and Financials». Machine Intelligence Research Institute. Consultado el 19 de febrero de 2017. 
  2. «IRS Form 990». Machine Intelligence Research Institute. 2013. Consultado el 12 de octubre de 2015. 
  3. Muehlhauser, Luke (2015). «A fond farewell and a new Executive Director». MIRI Blog. Consultado el 12 de octubre de 2015. 
  4. Soares, Nate; Fallenstein, Benja (2015). «Aligning Superintelligence with Human Interests: A Technical Research Agenda». En Miller, James; Yampolskiy, Roman; Armstrong, Stuart et al., eds. The Technological Singularity: Managing the Journey. Springer. 
  5. «Research Workshops». Machine Intelligence Research Institute. 2013. Consultado el 11 de octubre de 2015. 
  6. GiveWell (2015), Potential risks from advanced artificial intelligence, consultado el 11 de octubre de 2015 .
  7. Hawking, Stephen; Tegmark, Max; Russell, Stuart; Wilczek, Frank (2014). «Transcending Complacency on Superintelligent Machines». The Huffington Post. Consultado el 11 de octubre de 2015. 
  8. Basulto, Dominic (2015). «The very best ideas for preventing artificial intelligence from wrecking the planet». The Washington Post. Consultado el 11 de octubre de 2015. 
  9. «El botón que patentó Google para apagar toda la inteligencia artificial si amenaza a los seres humanos». BBC Mundo. 15 de junio de 2016. 

Enlaces externos

[editar]