Instituto de Investigación de la Inteligencia de las Máquinas
Instituto de Investigación de la Inteligencia de las Máquinas | ||
---|---|---|
Tipo | Sin ánimo de lucro, Instituto de investigación | |
Forma legal | 501(c)(3) Exenta de impuestos Asociación caritativa | |
Objetivos | Investigación en inteligencia artificial amistosa | |
Fundación | 2000[1] | |
Fundador | Eliezer Yudkowsky | |
Sede central | Berkeley, California | |
Presidente del consejo | Edwin Evans | |
Personas clave | Eliezer Yudkowsky | |
Ingresos | $1,7 million (2013)[2] | |
Sitio web | intelligence.org | |
El Instituto de Investigación de la Inteligencia de las Máquinas (de la sigla en inglés MIRI), anteriormente el Instituto de la Singularidad para la Inteligencia Artificial (SIAI), es una organización sin fines de lucro fundada en 2000[1] para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte. Nate Soares es el director ejecutivo, habiendo tomado el control de Luke Muehlhauser en mayo de 2015.[3]
La agenda técnica de MIRI establece que se necesitan nuevas herramientas formales para asegurar la operación segura de las futuras generaciones de software de IA (inteligencia artificial amigable).[4]
La organización organiza talleres de investigación regulares para desarrollar bases matemáticas para este proyecto,[5] y ha sido citado como uno de varios grupos académicos y sin fines de lucro que estudian los resultados de la IA a largo plazo.[6][7][8]
El peligro potencial de las máquinas inteligentes para con los seres humanos, es una preocupación creciente de científicos y especialistas en robótica. Según una investigación publicada por el Instituto MIRI, la solución de Google en el caso que la IA amenace la existencia de los seres humanos, consiste en un "botón rojo de emergencia", que sería capaz de "apagar" toda la inteligencia artificial.[9]
Referencias
[editar]- ↑ a b «Transparency and Financials». Machine Intelligence Research Institute. Consultado el 19 de febrero de 2017.
- ↑ «IRS Form 990». Machine Intelligence Research Institute. 2013. Consultado el 12 de octubre de 2015.
- ↑ Muehlhauser, Luke (2015). «A fond farewell and a new Executive Director». MIRI Blog. Consultado el 12 de octubre de 2015.
- ↑ Soares, Nate; Fallenstein, Benja (2015). «Aligning Superintelligence with Human Interests: A Technical Research Agenda». En Miller, James; Yampolskiy, Roman; Armstrong, Stuart et al., eds. The Technological Singularity: Managing the Journey. Springer.
- ↑ «Research Workshops». Machine Intelligence Research Institute. 2013. Consultado el 11 de octubre de 2015.
- ↑ GiveWell (2015), Potential risks from advanced artificial intelligence, consultado el 11 de octubre de 2015.
- ↑ Hawking, Stephen; Tegmark, Max; Russell, Stuart; Wilczek, Frank (2014). «Transcending Complacency on Superintelligent Machines». The Huffington Post. Consultado el 11 de octubre de 2015.
- ↑ Basulto, Dominic (2015). «The very best ideas for preventing artificial intelligence from wrecking the planet». The Washington Post. Consultado el 11 de octubre de 2015.
- ↑ «El botón que patentó Google para apagar toda la inteligencia artificial si amenaza a los seres humanos». BBC Mundo. 15 de junio de 2016.
Enlaces externos
[editar]