OpenAI

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
OpenAI
OpenAI Logo.png
Tipo 501(c)(3) Nonprofit organization[1][2]
Industria inteligencia artificial
Fundación 11 de diciembre de 2015
Fundador(es) Elon Musk
Sam Altman
Sede San Francisco, California, U.S.[3]
Personas clave Ilya Sutskever, Greg Brockman
Productos OpenAI Gym
Sitio web openai.com
[editar datos en Wikidata]

OpenAI es una compañía de investigación de inteligencia artificial (IA) sin fines de lucro que tiene como objetivo promover y desarrollar inteligencia artificial amigable de tal manera que beneficie a la humanidad en su conjunto. La organización tiene como objetivo "colaborar libremente" con otras instituciones e investigadores al hacer sus patentes e investigaciones abiertas al público. Los fundadores (notablemente Elon Musk y Sam Altman) están motivados en parte por las preocupaciones sobre el riesgo existencial de la inteligencia artificial general.[4]

Historia[editar]

En octubre de 2015, Musk, Altman y otros inversionistas anunciaron la formación de la organización, prometiendo más de mil millones de dólares a la empresa.

El 27 de abril de 2016, OpenAI lanzó una versión beta pública de "OpenAI Gym", su plataforma para la investigación de aprendizaje reforzado.

El 5 de diciembre de 2016, OpenAI lanzó Universe, una plataforma de software para medir y entrenar la inteligencia general de IA en todo el suministro de juegos, sitios web y otras aplicaciones del mundo.[5][6][7][8]

Durante el torneo The International 2017 del videojuego Dota 2 en agosto, OpenAI permitió que un bot entrenado con las tecnicas de aprendizaje de máquinas, jugaze un juego de demostración 1 contra 1 contra un jugador profesional de Dota 2, Dendi, que jugó contra él en directo y perdió. Después de la demostración, el CTO Greg Brockman explicó que el robot había aprendido jugando contra sí mismo durante dos semanas en tiempo real, y que el software de aprendizaje era un paso en la dirección de crear software que pueda manejar tareas complejas "como ser cirujano".[9][10]

Motivos[editar]

Algunos científicos, como Stephen Hawking y Stuart Russell, creen que si la inteligencia artificial avanzada algún día gana la capacidad de rediseñarse a un ritmo cada vez mayor, una "explosión de inteligencia" imparable podría llevar a la extinción humana. Musk caracteriza a IA como la mayor amenaza existencial de la humanidad. Los fundadores de OpenAI lo estructuraron como una organización sin fines de lucro para que pudieran centrar su investigación en la creación de un impacto humano positivo a largo plazo.

OpenAI afirma que "es difícil comprender cuánto podría beneficiar a la sociedad la IA al nivel humano", y que es igualmente difícil comprender "cuánto podría dañar a la sociedad si se construyera o se usara incorrectamente". La investigación sobre seguridad no se puede posponer con seguridad: "debido a la sorprendente historia de IA, es difícil predecir cuándo la IA a nivel humano podría estar al alcance". OpenAI afirma que AI "debe ser una extensión de las voluntades humanas individuales y, en el espíritu de la libertad, distribuirse de la manera más amplia y equitativa posible ..." El copresidente Sam Altman espera que el proyecto de décadas supere la inteligencia humana.

Vishal Sikka, ex CEO de Infosys, declaró que una "apertura" donde el esfuerzo "produciría resultados generales para mayor interés de la humanidad" era un requisito fundamental para su apoyo, y que OpenAI "se alinea muy bien con nuestros valores mas antiguos" y su "esfuerzo por hacer un trabajo con propósito". Cade Metz de Wired sugiere que las empresas como Amazon pueden estar motivadas por el deseo de utilizar datos y software de código abierto para nivelar el campo de juego contra corporaciones como Google y Facebook que poseen enormes cantidades de datos de propiedad. Altman afirma que las compañías Y Combinator compartirán sus datos con OpenAI.

Estrategia[editar]

Musk plantea la pregunta: "¿qué es lo mejor que podemos hacer para asegurar que el futuro sea bueno? Podríamos sentarnos al margen o alentar la supervisión reguladora, o podríamos participar con la estructura adecuada con personas que se preocupan profundamente por desarrollar la IA de una manera segura y beneficiosa para la humanidad ". Musk reconoce que "siempre hay algún riesgo de que al tratar de avanzar la (amigable) IA podamos crear lo que nos preocupa"; sin embargo, la mejor defensa es "facultar a tantas personas como sea posible para tener IA. Si todos tienen poderes de IA, entonces no hay una sola persona o un conjunto pequeño de personas que puedan tener superpotencia de IA".

La estrategia contraintuitiva de Musk y Altman de tratar de reducir el riesgo de que la IA cause un daño general, al dar IA a todos, es controvertida entre aquellos que están preocupados por el riesgo existencial de la inteligencia artificial. El filósofo Nick Bostrom es escéptico sobre el enfoque de Musk: "Si tienes un botón que podría hacer cosas malas al mundo, no quieres dárselo a todos". Durante una conversación de 2016 sobre la singularidad tecnológica, Altman dijo que "no planeamos lanzar todo nuestro código fuente" y mencionó un plan para "permitir que amplias franjas del mundo elijan representantes para una nueva junta de gobierno". Greg Brockman declaró que "Nuestro objetivo en este momento ... es hacer lo mejor que hay que hacer. Es un poco impreciso".

Gym[editar]

El objetivo de Gym es proporcionar un punto de referencia de inteligencia general, fácil de instalar con una amplia variedad de entornos diferentes (algo parecido, pero más amplio, al reto de reconocimiento visual de gran escala ImageNet utilizado en la investigación de aprendizaje supervisado), y que espera estandarizar la forma en que se definen los entornos en las publicaciones de investigación de IA, de modo que la investigación publicada se vuelva más fácil de reproducir. El proyecto pretende proporcionar al usuario una interfaz simple. A partir de junio de 2017, Gym solo se puede usar con Python. A partir de septiembre de 2017, el sitio de documentación de Gym ya no se mantiene.

RoboSumo[editar]

Igor Mordatch de OpenAI argumenta que la competencia entre agentes puede crear una "carrera de armamentos" de inteligencia que puede aumentar la capacidad de un agente para funcionar, incluso fuera del contexto de la competencia. En el "RoboSumo" de OpenAI, los robots "metalearning" humanoides virtuales inicialmente carecen de conocimiento de cómo caminar, y teniendo en cuenta los objetivos de aprender a moverse, y empujar al agente contrario fuera del ring. A través de este proceso de aprendizaje adversial, los agentes aprenden cómo adaptarse a las condiciones cambiantes; cuando un agente se retira de este entorno virtual y se coloca en un nuevo entorno virtual con fuertes vientos, el agente se prepara para permanecer en posición vertical, lo que sugiere que aprendió a equilibrar de forma generalizada.

Participantes[editar]

Los dos co-directores del proyecto son:

Otros partidarios del proyecto:

Personal de alto perfil:

  • Director de investigacion: Ilya Sutskever, anteriormente, experto de aprendizaje de maquinas en Google
  • CTO: Greg Brockman

El grupo comenzó a principios de enero de 2016 con nueve investigadores. Según Wired, Brockman se reunió con Yoshua Bengio, uno de los "padres fundadores" del movimiento de aprendizaje profundo, y elaboró una lista de los "mejores investigadores en el campo". Peter Lee, de Microsoft, afirmó que el costo de un investigador superior en IA excede el costo de un prospecto de mariscal de campo de la NFL. Si bien OpenAI paga salarios de nivel corporativo (en lugar de niveles sin fines de lucro), actualmente no paga salarios de investigadores de IA comparables a los de Facebook o Google. Sin embargo, Sutskever declaró que estaba dispuesto a dejar Google para OpenAI "en parte por el gran grupo de personas y, en gran medida, por su misión". Brockman declaró que "lo mejor que podía imaginar era acercar a la humanidad a la construcción de una IA real de una manera segura". El investigador de OpenAI, Wojciech Zaremba, declaró que rechazó las ofertas de "locura límite" de dos o tres veces su valor de mercado para unirse a OpenAI.

Vea también[editar]

Referencias[editar]

  1. Levy, Steven (December 11, 2015). «How Elon Musk and Y Combinator Plan to Stop Computers From Taking Over». Medium/Backchannel. Consultado el December 11, 2015. «Elon Musk: ...we came to the conclusion that having a 501(c)(3)... would probably be a good thing to do». 
  2. Greg Brockman
  3. Markoff, John (December 11, 2015). «Artificial-Intelligence Research Center Is Founded by Silicon Valley Investors». The New York Times. Consultado el December 12, 2015. 
  4. Lewontin, Max (14 December 2015). «Open AI: Effort to democratize artificial intelligence research?». Consultado el 19 December 2015. 
  5. Metz, Cade. «Elon Musk’s Lab Wants to Teach Computers to Use Apps Just Like Humans Do». WIRED. Consultado el 31 December 2016. 
  6. Mannes, John. «OpenAI’s Universe is the fun parent every artificial intelligence deserves». TechCrunch. Consultado el 31 December 2016. 
  7. «OpenAI - Universe» (en inglés estadounidense). Consultado el 31 December 2016. 
  8. Claburn, Thomas. «Elon Musk-backed OpenAI reveals Universe – a universal training ground for computers». The Register. Consultado el 31 December 2016. 
  9. «Dota 2». blog.openai.com. Consultado el 12 August 2017. 
  10. Frank, Blair Hanley. «OpenAI’s bot beats top Dota 2 player so badly that he quits». Venture Beat. Consultado el 12 August 2017. 

Enlaces externos[editar]