OpenCog

De Wikipedia, la enciclopedia libre
OpenCog
Archivo:OpenCog.png
Información general
Tipo de programa software libre y de código abierto
Autor OpenCog Developers
Desarrollador OpenCog Foundation
Lanzamiento inicial 21 de enero de 2008
Licencia GNU Affero General Public License
Información técnica
Programado en
Plataformas admitidas Linux
Enlaces

OpenCog es un proyecto que tiene como objetivo construir un marco de inteligencia artificial de código abierto. OpenCog Prime es una arquitectura para la cognición[1]​ incorporada, virtual y robótica, que define un conjunto de componentes interactivos diseñados para dar lugar a la inteligencia artificial general (AGI) equivalente a humanos como un fenómeno emergente de todo el sistema.[2]​ El diseño de OpenCog Prime es principalmente el trabajo de Ben Goertzel, mientras que el marco OpenCog está diseñado como un marco genérico para la investigación de AGI de base amplia. La investigación que utiliza OpenCog se ha publicado en revistas y se ha presentado en conferencias y talleres, incluida la Conferencia anual sobre Inteligencia General Artificial.[3]​ OpenCog se publica bajo los términos de la licencia pública general GNU Affero.

OpenCog es utilizado por más de 50 empresas, incluyendo Huawei y Cisco.[4]

Origen[editar]

OpenCog se basó originalmente en el lanzamiento en 2008 del código fuente de la propiedad "Novamente Cognition Engine" (NCE) de Novamente LLC.[5]​ El código NCE original se analiza en el libro PLN (ver más abajo). El desarrollo continuo de OpenCog cuenta con el apoyo del Instituto de Investigación de Inteligencia General Artificial (AGIRI),[6]​ el proyecto Google Summer of Code, Hanson Robótica, SingularityNET y otros.

Componentes[editar]

OpenCog Consta de:

  • Colección de átomos predefinidos que codifican un subsistema de tipos, incluidos los constructores de tipos y los tipos de funciones. Se utilizan para especificar los tipos de variables, términos y expresiones, y se utilizan para especificar la estructura de grafos genéricos que contienen variables.
  • Una colección de átomos predefinidos que codifican estilos de programación tanto funcionales como imperativos. Estos incluyen la abstracción lambda para vincular variables libres en variables vinculadas, así como para realizar la reducción beta.
  • Un motor de reglas genérico, que incluye un encadenamiento hacia adelante y un encadenamiento hacia atrás, que es capaz de encadenar reglas. Las reglas son exactamente las consultas de grafos del subsistema de consultas del grafo, por lo que el motor de reglas se parece vagamente a un planificador de consultas. Está diseñado para permitir la implementación de diferentes tipos de motores de inferencia y sistemas de razonamiento, como inferencia bayesiana o lógica difusa, o tareas prácticas, como solucionadores de restricciones o planificadores de movimiento.
  • Un subsistema de asignación de atención basado en la teoría económica, denominado ECAN.[7]​ Este subsistema se utiliza para controlar la explosión combinatoria de posibilidades de búsqueda que se cumplen durante la inferencia y el encadenamiento.
  • Una implementación de un motor de razonamiento probabilístico basado en redes lógicas probabilísticas (PLN). La implementación actual utiliza el motor de reglas para encadenar reglas específicas de inferencia lógica (como modus ponens), junto con algunas fórmulas matemáticas muy específicas que asignan una probabilidad y una confianza a cada deducción. Este subsistema se puede considerar como un cierto tipo de asistente de prueba que trabaja con una forma modificada de inferencia bayesiana.
  • Un evolucionador de programa genético probabilístico llamado Meta-Optimizing Semantic Evolutionary Search, o MOSES.[8]​ Esto se utiliza para descubrir colecciones breves de programas Atomese que realizan tareas; estos pueden considerarse como una especie de aprendizaje de árbol de decisiones, lo que resulta en una especie de bosque de decisiones, o más bien, una generalización del mismo.
  • Un sistema de entrada de lenguaje natural que consiste en Link Grammar,[9]​ y en parte inspirado tanto en la Teoría de Meaning-Text como en la gramática de Palabras de Dick Hudson, que codifica relaciones semánticas y sintácticas en Atomese.
  • Un sistema de generación de lenguaje natural .[10]
  • Una implementación de Psi-Theory para manejar estados emocionales, unidades e impulsos, denominada OpenPsi.[11]
  • Interfaces con robots de Hanson Robtics, incluido el modelado de emociones a través de OpenPsi.[12]​ Esto incluye el proyecto Loving AI, utilizado para demostrar técnicas de meditación.[13]

Organización y financiación[editar]

En 2008, el Instituto de Investigación de la Inteligencia de las Máquina (MIRI), anteriormente llamado el Instituto de la Singularidad para la Inteligencia Artificial (SIAI), patrocinó a varios investigadores e ingenieros. Se han realizado muchas contribuciones de la comunidad de código abierto desde la participación de OpenCog en Google Summer of Code en 2008 y 2009. Actualmente, MIRI ya no es compatible con OpenCog.[14]​ OpenCog ha recibido financiación y soporte de varias fuentes, incluido el gobierno de Hong Kong, la Universidad Politécnica de Hong Kong, la fundación Jeffrey Epstein VI[15]​ y Hanson Robotics. El proyecto OpenCog está actualmente afiliado a SingularityNET y Hanson Robotics.

Aplicaciones[editar]

Al igual que en otras arquitecturas cognitivas, el objetivo principal es crear humanos virtuales, que son personajes en forma de avatar tridimensionales. El objetivo es imitar comportamientos como emociones, gestos y aprendizaje. Por ejemplo, el módulo de emociones en el software solo se programó porque los humanos tenemos emociones. La Inteligencia General Artificial puede realizarse si simula la inteligencia de los humanos.[16]

La autodescripción del proyecto OpenCog proporciona posibles aplicaciones adicionales que van en la dirección del procesamiento del lenguaje natural y la simulación de un perro.[17]

Véase también[editar]

Fuentes[editar]

  • . Proceedings of the First AGI Conference. 2008.  Gbooks
  • Goertzel, B., Iklé, M., Goertzel, I.F., Heljakka, Un. Redes de Lógica probabilista, Un Marco Comprensible para Inferencia Incierta, Salmer, 2009, VIII, 336 p., Hardcover

Referencias[editar]

  1. https://www.cognifit.com/es/cognicion
  2. «OpenCog: Open-Source Artificial General Intelligence for Virtual Worlds | CyberTech News». 6 de marzo de 2009. Archivado desde el original el 6 de marzo de 2009. Consultado el 1 de octubre de 2016. 
  3. AGI Conferences
  4. Rogers, Stewart (7 de diciembre de 2017). «SingularityNET talks collaborative AI as its token sale hits 400% oversubscription». venturebeat.com. VentureBeat. Consultado el 13 de marzo de 2018. 
  5. http://66.49.204.109/engine/
  6. Artificial General Intelligence Research Institute
  7. «Economic Attention Allocation». 
  8. «MOSES». 
  9. [1]
  10. «Natural Language Generation.». 
  11. «OpenPsi». 
  12. «Archived copy». Archivado desde el original el 19 de marzo de 2018. Consultado el 24 de abril de 2015. 
  13. Loving AI proyect
  14. Ben Goertzel (29 de octubre de 2010). «The Singularity Institute's Scary Idea (and Why I Don't Buy It)». The Multiverse According to Ben. Consultado el 24 de junio de 2011. 
  15. «Science Funder Jeffrey Epstein Launches Radical Emotional Software». Forbes. 2 de octubre de 2013. 
  16. David Burden; Maggi Savin-Baden (24 de enero de 2019). Virtual Humans: Today and Tomorrow. CRC Press. ISBN 978-1-351-36526-0. Consultado el 25 de agosto de 2020. 
  17. Ben Goertzel; Cassio Pennachin; Nil Geisweiller (8 de julio de 2014). Engineering General Intelligence, Part 1: A Path to Advanced AGI via Embodied Learning and Cognitive Synergy. Springer. pp. 23-. ISBN 978-94-6239-027-0. 

Enlaces externos[editar]