AIXI

De Wikipedia, la enciclopedia libre

AIXI['ai̯k͡siː] es un formalismo matemático teórico para la inteligencia general artificial . Combina la inducción de Solomonoff con la teoría de decisión secuencial . AIXI fue propuesto por primera vez por Marcus Hutter en 2000[1]​ y varios resultados con respecto a AIXI se prueban en el libro de 2005 de Hutter Universal Artificial Intelligence.[2]​ AIXI es un agente de aprendizaje por refuerzo (RL) . Maximiza las recompensas totales esperadas recibidas del entorno. Intuitivamente, considera simultáneamente todas las hipótesis (o entornos) computables. En cada paso de tiempo, analiza todos los programas posibles y evalúa cuántas recompensas genera ese programa en función de la siguiente acción que se realice. Las recompensas prometidas se ponderan luego por la creencia subjetiva de que este programa constituye el verdadero entorno. Esta creencia se calcula a partir de la duración del programa: los programas más largos se consideran menos probables, en línea con la navaja de Occam . Luego, AIXI selecciona la acción que tiene la recompensa total esperada más alta en la suma ponderada de todos estos programas.

Definición[editar]

AIXI es un agente de aprendizaje por refuerzo que interactúa con algún entorno estocástico y desconocido pero computable . La interacción procede en pasos de tiempo, desde a , dónde es la vida útil del agente AIXI. En el paso de tiempo t, el agente elige una acción (por ejemplo, un movimiento de una extremidad) y lo ejecuta en el entorno, y el entorno responde con una "percepción" , que consiste en una "observación" (por ejemplo, una imagen de cámara) y una recompensa , distribuidos según la probabilidad condicional , dónde es la "historia" de acciones, observaciones y recompensas. El entorno por lo tanto, se representa matemáticamente como una distribución de probabilidad sobre "percepciones" (observaciones y recompensas) que dependen del historial completo, por lo que no existe la suposición de Markov (a diferencia de otros algoritmos de RL). Nótese nuevamente que esta distribución de probabilidad es desconocida para el agente AIXI. Además, nótese nuevamente que es computable, es decir, las observaciones y recompensas que recibe el agente del entorno puede ser calculado por algún programa (que se ejecuta en una máquina de Turing ), dadas las acciones pasadas del agente AIXI.[3]

El único objetivo del agente AIXI es maximizar , es decir, la suma de las recompensas desde el paso de tiempo 1 hasta m.

El agente AIXI está asociado a una política estocástica , que es la función que utiliza para elegir acciones en cada paso de tiempo, donde es el espacio de todas las acciones posibles que AIXI puede tomar y es el espacio de todas las "percepciones" posibles que puede producir el entorno. El entorno (o distribución de probabilidad) también se puede considerar como una política estocástica (que es una función): , donde el es la operación estrella de Kleene . En general, en el paso de tiempo (que va de 1 a m), AIXI, habiendo ejecutado previamente acciones (que a menudo se abrevia en la literatura como ) y habiendo observado la historia de las percepciones (que se puede abreviar como ), elige y ejecuta en el entorno la acción, , definido de la siguiente manera[4]

o, usando paréntesis, para eliminar la ambigüedad de las precedencias

Intuitivamente, en la definición anterior, AIXI considera la suma de la recompensa total sobre todos los "futuros" posibles hasta el tiempo avanza (es decir, desde a ), pondera cada uno de ellos por la complejidad de los programas (es decir, por ) consistente con el pasado del agente (es decir, las acciones ejecutadas previamente, , y percepciones recibidas, ) que puede generar ese futuro, y luego elige la acción que maximiza las recompensas futuras esperadas.[3]

Desglosemos esta definición para intentar entenderla completamente.

es el "percepto" (que consiste en la observación y recompensa ) recibido por el agente AIXI en el paso de tiempo del entorno (que es desconocido y estocástico). Similarmente, es la percepción recibida por AIXI en el paso de tiempo (el último paso de tiempo en el que AIXI está activo).

es la suma de las recompensas del paso de tiempo paso de tiempo , por lo que AIXI necesita mirar hacia el futuro para elegir su acción en el paso de tiempo .

denota una máquina de Turing universal monótona, y rangos sobre todos los programas (deterministas) en la máquina universal , que recibe como entrada el programa y la secuencia de acciones (es decir, todas las acciones), y produce la secuencia de percepciones . La máquina de Turing universal por lo tanto, se utiliza para "simular" o calcular las respuestas o percepciones del entorno, dado el programa (que "modela" el entorno) y todas las acciones del agente AIXI: en este sentido, el entorno es "computable" (como se indicó anteriormente). Tenga en cuenta que, en general, el programa que "modela" el entorno actual y real (donde AIXI debe actuar) es desconocido porque el entorno actual también es desconocido.

es la duración del programa (que se codifica como una cadena de bits). Tenga en cuenta que . Por lo tanto, en la definición anterior, debe interpretarse como una mezcla (en este caso, una suma) sobre todos los entornos computables (que son consistentes con el pasado del agente), cada uno ponderado por su complejidad . Tenga en cuenta que también se puede escribir como , y es la secuencia de acciones ya ejecutadas en el entorno por el agente AIXI. Similarmente, , y es la secuencia de percepciones producidas por el entorno hasta el momento.

Pongamos ahora todos estos componentes juntos para entender esta ecuación o definición.

En el paso de tiempo t, AIXI elige la acción donde la función alcanza su máximo.

Parámetros[editar]

Los parámetros para AIXI son la máquina de Turing universal U y el tiempo de vida del agente m, que deben elegirse. El último parámetro se puede eliminar mediante el uso de descuentos .

El significado de la palabra AIXI[editar]

Según Hutter, la palabra "AIXI" puede tener varias interpretaciones. AIXI puede representar AI según la distribución de Solomonoff, denotada por (que es la letra griega xi), o por ejemplo, puede significar AI "cruzado" (X) con inducción (I). Hay otras interpretaciones.

Optimalidad[editar]

El desempeño de AIXI se mide por el número total esperado de recompensas que recibe. Se ha demostrado que AIXI es óptimo de las siguientes maneras.[2]

  • Óptimo de Pareto : no hay otro agente que funcione al menos tan bien como AIXI en todos los entornos mientras se desempeña estrictamente mejor en al menos un entorno.[cita requerida]
  • Optimismo de Pareto equilibrado: como el óptimo de Pareto, pero considerando una suma ponderada de entornos.
  • Autooptimización: una política p se denomina autooptimización para un entorno. si el rendimiento de p se acerca al máximo teórico para cuando la duración de la vida del agente (no el tiempo) llega al infinito. Para las clases de entorno en las que existen políticas de optimización automática, AIXI se optimiza automáticamente.

Más tarde, Hutter y Jan Leike demostraron que la optimización de Pareto equilibrada es subjetiva y que cualquier política puede considerarse óptima de Pareto, lo que describen como que socava todas las afirmaciones de optimización anteriores para AIXI.[5]​ Sin embargo, AIXI tiene limitaciones. Se limita a maximizar las recompensas basadas en percepciones en lugar de estados externos. También asume que interactúa con el entorno únicamente a través de canales de acción y percepción, evitando que considere la posibilidad de ser dañado o modificado. Coloquialmente, esto significa que no se considera contenido por el entorno con el que interactúa. También asume que el entorno es computable.[6]

Aspectos computacionales[editar]

Al igual que la inducción de Solomonoff, AIXI es incomputable . Sin embargo, existen aproximaciones computables de la misma. Una de esas aproximaciones es AIXI tl, que funciona al menos tan bien como el mejor agente limitado en tiempo t y espacio l.[2]​ Otra aproximación a AIXI con una clase de entorno restringido es MC-AIXI (FAC-CTW) (que significa Monte Carlo AIXI FAC- Context-Tree Weighting ), que ha tenido cierto éxito en juegos simples como Pac-Man parcialmente observable.[3][7]

Véase también[editar]

Referencias[editar]

  1. Marcus Hutter (2000). A Theory of Universal Artificial Intelligence based on Algorithmic Complexity. Bibcode:2000cs........4001H. 
  2. a b c Marcus Hutter (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. ISBN 978-3-540-22139-5. doi:10.1007/b138233. 
  3. a b c Veness, Joel; Kee Siong Ng; Hutter, Marcus; Uther, William; Silver, David (2009). «A Monte Carlo AIXI Approximation». arXiv:0909.0801  [cs.AI]. 
  4. Universal Artificial Intelligence
  5. . Proceedings of the 28th Conference on Learning Theory. 2015. 
  6. Soares, Nate. «Formalizing Two Problems of Realistic World-Models». Intelligence.org. Consultado el 19 de julio de 2015. 
  7. Playing Pacman using AIXI Approximation – YouTube