Aprendizaje automático en videojuegos

De Wikipedia, la enciclopedia libre

Varias técnicas de inteligencia artificial han sido utilizadas en los videojuegos, de muchas maneras, que van desde el control de personajes no jugadores (NPC) hasta la generación de contenido procesal (PCG). El aprendizaje automático es un subconjunto de la inteligencia artificial que se centra en el uso de algoritmos y modelos estadísticos para hacer que las máquinas actúen sin una programación específica. Esto contrasta en gran medida con métodos tradicionales de inteligencia artificial como árboles de búsqueda y sistemas expertos.

La información sobre las técnicas de aprendizaje de máquina en el campo de los juegos es mayoritariamente conocida por el público a través de proyectos de investigación, ya que la mayoría de las compañías de juegos deciden no publicar información concreta sobre su propiedad intelectual. La aplicación públicamente más conocida de aprendizaje de máquina en juegos es, probablemente, el uso de agentes de aprendizaje profundo que compiten con jugadores humanos profesionales en juegos de estrategia complejos. Ha habido una aplicación significativa de aprendizaje de máquina en juegos como Atari/ALE, Doom, Minecraft, Starcraft, y de carreras de automóviles.[1]​ Otros juegos que originalmente no existían como videojuegos, tales como ajedrez y Go, también han sido afectados por el aprendizaje automático.[2]

Visión general de las técnicas relevantes de aprendizaje de máquina[editar]

Una red neuronal artificial es un grupo interconectado de nodos, semejantes a la vasta red de neuronas en un cerebro. Aquí, cada nodo circular representa una neurona artificial y una flecha representa la salida de una neurona artificial a la entrada de otra.

Aprendizaje profundo[editar]

El aprendizaje profundo es un subconjunto de aprendizaje automático el cual se centra fuertemente en el uso de redes neuronales artificiales (ANN) que aprenden a solucionar tareas complejas. El aprendizaje profundo utiliza múltiples capas de ANN y otras técnicas para extraer progresivamente información de una entrada. Debido a este enfoque complejo de capas, los modelos de aprendizaje profundo a menudo requieren máquinas potentes para entrenarse y correr.

Redes neuronales convolucionales[editar]

Las redes neuronales convolucionales (CNN) son ANN que a menudo se utilizan para analizar datos de imágenes. Estos tipos de redes son capaces de aprender patrones invariables de traducción, los cuales son patrones que no dependen de la ubicación. Las CNN son capaces de aprender estos patrones en una jerarquía, lo que significa que las capas convolucionales anteriores aprenderán patrones locales más pequeños mientras las capas posteriores aprenderán los patrones más grandes basados en los patrones anteriores.[3]​ La capacidad de una CNN de aprender datos visuales la han hecho una herramienta comúnmente utilizada para aprendizaje profundo en los juegos.[4][5]

Red neuronal recurrente[editar]

Las redes neuronales recurrentes son un tipo de ANN que están diseñadas para procesar secuencias de datos en orden, una parte a la vez en lugar de todas. Un RNN recorre cada parte de una secuencia, utilizando la parte actual de la secuencia junto con la memoria de partes anteriores de la secuencia actual para producir una salida. Estos tipos de ANN son altamente eficaces en tareas como reconocimiento de voz y otros problemas que depende fuertemente del temporal. Hay varios tipos de RNN con diferentes configuraciones internas; la implementación básica sufre una carencia de memoria de plazo largo debido al gradiente de desvanecimiento, por lo que raramente se utiliza en implementaciones más nuevas.[3]

Memoria de plazo corto larga[editar]

Una red de memoria a largo plazo (LSTM) es una implementación concreta de un RNN que está diseñado para tratar el problema del gradiente de desaparición visto en los RNN simples,lo que llevaría a "olvidarse" gradualmente de las partes anteriores de un secuencia ingresada al calcular la salida de una parte actual. Los LSTM solucionan este problema con la adición de un sistema elaborado utiliza una entrada adicional para mantener pista de los datos a plazo largo.[3]​ Los LSTM han conseguido resultados muy fuertes en varios campos, y estuvo utilizado por varios agentes de aprendizaje profundos monumentales en juegos.[6][4]

Aprendizaje de refuerzo[editar]

El Aprendizaje de refuerzo es el proceso de entrenar un agente que utiliza recompensas y/o castigos. La manera en que un agente es premiado o castigado depende en gran medida del problema; como dar a un agente una recompensa positiva por ganar un juego o un negativa por perder. El Aprendizaje de refuerzo se utiliza mucho en el campo del aprendizaje de máquina y puede ser visto en métodos como Q-learning, búsqueda de política, Deep Q-networks y otros. Se ha visto un fuerte rendimiento en el campo de juegos y robótica.[7]

Neuroevolución[editar]

La neuroevolución implica el uso de redes neuronales y algoritmos evolutivos. En lugar de utilizar el descenso de gradiente como la mayoría de las redes neuronales, los modelos de neuroevolución utilizan algoritmos evolutivos para actualizar las neuronas en la red. Los investigadores afirman que es menos probable que este proceso se quede estancado en un mínimo local y que sea potencialmente más rápido que las técnicas de aprendizaje automático más avanzadas.[8]

Agentes de aprendizaje profundo[editar]

Los agentes de aprendizaje profundo se han utilizado para tomar el lugar de un jugador humano en lugar de funcionar como NPCs, que se agregan deliberadamente a los videojuegos como parte del juego diseñado. Los agentes de aprendizaje profundo han logrado resultados impresionantes cuando se usan en competencia con humanos y otros agentes de inteligencia artificial.[2][9]

Ajedrez[editar]

El ajedrez es un juego de estrategia por turnos que se considera un problema de IA difícil debido a la complejidad computacional de su espacio de estado en tablero. Juegos de estrategia similares a menudo se resuelven con alguna forma de generación de árbol Minimax. Se sabe que estos tipos de agentes de IA superan a los jugadores humanos profesionales, como el histórico Deep Blue contra Garry Kasparov en 1997. Desde entonces, los agentes de aprendizaje automático han demostrado un éxito cada vez mayor que los agentes de IA anteriores.

Go[editar]

Go es otro juego de estrategia por turnos que se considera un problema de IA aún más difícil que el Ajedrez. El espacio de Go es de alrededor de 10 ^ 170 estados de tablero posibles en comparación con los 10^120 estados de tablero para Ajedrez. Antes de los modelos recientes de aprendizaje profundo, los agentes de AI Go solo podían jugar al nivel de un aficionado humano.[5]

AlphaGo[editar]

AlphaGo de Google en 2015 fue el primer agente de IA en vencer a un jugador profesional de Go.[5]​ AlphaGo utilizó un modelo de aprendizaje automático para entrenar los pesos de una Búsqueda de árbol de Montecarlo (MCTS). El modelo de aprendizaje automático consistió en 2 ANN, una red de políticas para predecir las probabilidades de posibles movimientos de los oponentes, y una red de valores para predecir la posibilidad de ganar un estado determinado. El modelo de aprendizaje automático le permite al agente explorar potenciales estados de juego de manera más eficiente que un MCTS de vainilla. La red se entrenó inicialmente en juegos contra jugadores humanos y luego se entrenó más con otros juegos en contra de sí misma.

AlphaGo Cero[editar]

AlphaGo Zero, otra implementación de AlphaGo, pudo entrenarse completamente jugando contra sí mismo. Fue capaz de entrenar rápidamente a las capacidades del agente anterior.[10]

Starcraft 2[editar]

Starcraft y Starcraft 2 son videojuegos de estrategia en tiempo real (RTS) que se han convertido en entornos populares para la investigación de IA. Blizzard Y Deepmind han trabajado juntos para lanzar un entorno público de Starcraft 2 para que se realice una investigación de IA.[11]​ Se han probado varios métodos de aprendizaje profundo en ambos juegos, aunque la mayoría de los agentes suelen tener problemas para superar la IA predeterminada con los trucos habilitados o los jugadores expertos del juego.[1]

Alphastar[editar]

Alphastar fue el primer agente de IA en vencer a los jugadores profesionales de Starcraft 2 sin ninguna ventaja en el juego. La red de aprendizaje automática del agente inicialmente recibió información de una versión simplificada y alejada del estado del juego, pero luego se actualizó para jugar usando una cámara como otros jugadores humanos. Los desarrolladores no han lanzado públicamente el código o la arquitectura de su modelo, pero han enumerado varias técnicas de aprendizaje automático de última generación, como el aprendizaje de refuerzo profundo relacional, la memoria a largo plazo, los jefes de políticas autorregresivos, las redes de punteros y el valor centralizado base.[4]​ Alphastar fue inicialmente entrenado con aprendizaje supervisado, observó repeticiones de muchos juegos humanos para aprender estrategias básicas. Luego entrenó contra diferentes versiones de sí mismo y se mejoró mediante el aprendizaje por refuerzo. La versión final tuvo un gran éxito, pero solo se entrenó para jugar en un mapa específico en un enfrentamiento de espejo protoss.

Dota 2[editar]

Dota 2 es un juego multijugador en línea de arena de batalla (MOBA). Al igual que otros juegos complejos, los agentes de IA tradicionales no han podido competir en el mismo nivel que los humanos profesionales. La única información ampliamente publicada sobre los agentes de IA intentados en Dota 2 es el agente Five de aprendizaje profundo de OpenAI.

OpenAI Five[editar]

OpenAI Five utilizó redes LSTM redes para aprender cada héroe.Se entrenó utilizando una técnica de Aprendizaje de refuerzo conocida como Aprendizaje de política proximal que se ejecuta en un sistema que contiene GPUs y 128,000núcleos de CPU.[6]​ Five entrenado durante meses, acumula 180 años de experiencia en el juego cada día, antes de enfrentarse con jugadores profesionales.[12][13]​ Finalmente fue capaz de vencer al equipo campeón de esports en Dota 2 2018 en una serie de juegos del 2019.

Planetary Annihilation[editar]

Planetary Annihilation es un juego de estrategia de tiempo real qué se centra en una guerra a gran escala. Los desarrolladores usan ANN en su agente de IA predeterminado[14]

Juegos generalizados[editar]

Ha habido intentos de crear agentes de aprendizaje automático que puedan jugar más de un juego. Estos agentes de juego "generales" están entrenado para comprender juegos basados en propiedades compartidas entre ellos.

AlphaZero[editar]

AlphaZero es una versión modificada de AlphaGo Zero que puede jugar shōgi, ajedrez y Go. El agente modificado comienza con solo información básica de las reglas del juego, y también se entrena completamente a través del auto aprendizaje. Deepmind pudo entrenar a este agente generalizado para ser competitivo con versiones anteriores de sí mismo en Go, así como con los mejores agentes en los otros 2 juegos.[15]

Fortalezas y debilidades de los agentes de aprendizaje profundo[editar]

Los agentes de aprendizaje automático no suelen tratarse en cursos de diseño de juegos. El uso previo de agentes de aprendizaje automático en los juegos puede no haber sido muy práctico, ya que incluso la versión 2015 de AlphaGo tomó cientos de horas de computación con CPU y GPU para llegar a un nivel fuerte.[2]​ Esto potencialmente limita la creación de agentes de deep learning altamente efectivos para grandes corporaciones o individuos extremadamente ricos. El extenso tiempo de entrenamiento de los enfoques basados en redes neuronales también puede llevar semanas en estas máquinas potentes..[4]

El problema de la capacitación efectiva de los modelos basados en ANN se extiende más allá de los potentes entornos de hardware; Encontrar una buena manera de representar datos y aprender cosas significativas de ellos también es a menudo un problema difícil. Los modelos ANN a menudo se sobre ajustan a datos muy específicos y funcionan mal en casos más generalizados. AlphaStar muestra esta debilidad, a pesar de poder vencer a jugadores profesionales, solo puede hacerlo en un solo mapa cuando juega un enfrentamiento de protoss espejo.[4]​ OpenAI Five también muestra esta debilidad, solo fue capaz de vencer al jugador profesional cuando se enfrentó a un grupo de héroes muy limitado en todo el juego.[13]​ Este ejemplo muestra lo difícil que puede ser entrenar a un agente de aprendizaje profundo para que se desempeñe en situaciones más generalizadas.

Los agentes de Aprendizaje de máquina han demostrado un gran éxito en una variedad de juegos diferentes.[12][2][4]​ Sin embargo, los agentes que son demasiado competentes también corren el riesgo de hacer que los juegos sean demasiado difíciles para los jugadores nuevos o casuales. La investigación ha demostrado que el desafío que está muy por encima del nivel de habilidad de un jugador arruinará el disfrute del jugador.[16]​ Es probable que estos agentes altamente entrenados solo sean deseables contra jugadores humanos muy hábiles que tienen muchas horas de experiencia en un juego determinado. Dados estos factores, los agentes de aprendizaje profundo altamente efectivos son probablemente solo una opción deseada en los juegos que tienen una gran escena competitiva, donde pueden funcionar como una opción de práctica alternativa para un jugador humano experto.

Visión por computadora para juegos[editar]

La visión artificial se enfoca en entrenar computadoras para obtener una comprensión de alto nivel de imágenes o vídeos digitales. Muchas técnicas de visión por computadora también incorporan formas de aprendizaje automático y se han aplicado en varios videojuegos. Esta aplicación de visión por computadora se enfoca en interpretar eventos de juegos usando datos visuales. En algunos casos, los agentes de inteligencia artificial usan la visión por computadora para jugar juegos sin interactuar directamente con la API de un videojuego.

Doom (1993)[editar]

Doom es un Videojuego de disparos en primera persona. Estudiantes investigadores de la Universidad Carnegie Mellon utilizaron técnicas de visión por computadora para crear un agente que pudiera jugar el juego usando solo la entrada de píxeles de imagen del juego. Los estudiantes usaron capas de redes neuronales convolucionales (CNN) para interpretar datos de imágenes entrantes y enviar información válida a una red neuronal recurrente que era responsable de generar movimientos del juego.[17]

Aprendizaje automático para la generación de contenido procedural en juegos[editar]

El machine learning ha visto investigado para su uso en la recomendación y generación de contenido. La generación de contenido procedimental (PCG) es el proceso de crear datos algorítmicamente en lugar de manualmente. Este tipo de contenido se utiliza para agregar capacidad de reproducción a los juegos sin depender de adiciones constantes por parte de desarrolladores humanos. La generación de contenido procesal se ha utilizado en varios juegos para diferentes tipos de generación de contenido, ejemplos de los cuales incluyen armas en Borderlands 2,[18]​ todo diseños mundiales en Minecraft,[19]​ y universos enteros en No Man's Sky.[20]​ Los enfoques comunes para PCG incluyen técnicas que involucran gramáticas, algoritmos basados en búsquedas y programación lógica.[21]​ Estos enfoques requieren que los humanos definan manualmente el rango de contenido posible, lo que significa que un desarrollador humano decide qué características conforman una pieza válida de contenido generado. El aprendizaje automático es teóricamente capaz de aprender estas características cuando se dan ejemplos para entrenar, lo que reduce en gran medida el paso complicado de los desarrolladores que especifican los detalles del diseño de contenido.[22]​ Las técnicas de aprendizaje automático utilizadas para la generación de contenido incluyen redes neuronales recurrentes (RNN) de memoria a corto plazo (LSTM), redes adversas generativas (GAN) y clustering K-means. No todas estas técnicas utilizan ANN, pero el rápido desarrollo del Aprendizaje profundo ha aumentado enormemente el potencial de las técnicas que lo hacen.

Galactic Arms Race[editar]

Galactic Arms Race (GAR) es un videojuego de disparos espaciales que utiliza PCG impulsado por neuroevolución para generar armas únicas para el jugador. Este juego fue finalista en el Indie Game Challenge 2010 y su trabajo de investigación relacionado ganó el Premio al Mejor Papel en la Conferencia IEEE 2009 sobre Inteligencia Computacional y Juegos. Los desarrolladores usan una forma de neuroevolución llamada cgNEAT para generar contenido nuevo basado en las preferencias personales de cada jugador..[23]

Cada elemento generado está representado por un ANN especial conocido como Red de Producción de Patrones Composicionales (CPPN). Durante la fase evolutiva del juego, cgNEAT calcula la aptitud de los elementos actuales en función del uso del jugador y otras métricas de juego, esta puntuación de aptitud se usa para decidir qué CPPN se reproducirá para crear un nuevo elemento. El resultado final es la generación de nuevos efectos de armas basados en la preferencia del jugador.

Super Mario Bros[editar]

Super Mario Bros. ha sido utilizado por varios investigadores para simular la creación de niveles de PCG. Varios intentos de haber utilizado diferentes métodos. Una versión en 2014 usó n-gramos para generar niveles similares a los que entrenó, que luego se mejoró mediante el uso de MCTS para guiar la generación.[24]​ Estas generaciones a menudo no eran óptimas cuando se tomaban en cuenta las métricas de juego, como el movimiento del jugador, un proyecto de investigación separado en 2017 trató de resolver este problema generando niveles basados en el movimiento del jugador usando las cadenas de Markov.[25]​ Estos proyectos no fueron sometidos a pruebas en humanos y pueden no cumplir con los estándares de jugabilidad humana.

The Legend of Zelda[editar]

La creación de nivel PCG para The Legend of Zelda ha sido intentada por investigadores de la Universidad de California, Santa Cruz. Este intento hizo uso de una red bayesiana para aprender conocimiento de alto nivel de los niveles existentes, mientras que el análisis de componentes principales (PCA) se utilizó para representar las diferentes características de bajo nivel de estos niveles.[26]​ Los investigadores utilizaron PCA para comparar los niveles generados con los niveles producidos por el hombre y descubrieron que se consideraban muy similares. Esta prueba no incluyó jugabilidad o prueba humana de los niveles generados.

Generación de música[editar]

La música a menudo se ve en los videojuegos y puede ser un elemento crucial para influir en el estado de ánimo de diferentes situaciones y puntos de la historia. El aprendizaje automático se ha utilizado en el campo experimental de la generación de música; Es especialmente adecuado para procesar datos no estructurados sin procesar y formar representaciones de alto nivel que podrían aplicarse al campo diverso de la música.[27]​ La mayoría de los métodos intentados han implicado el uso de ANN de alguna forma. Los métodos incluyen el uso de redes neuronales prealimentadas, autoencoders, máquinas de Boltzmann restringidas, redes neuronales recurrentes, redes neuronales convolucionales, redes adversas generativas (GAN) y arquitecturas compuestas que utilizan múltiples métodos.

Sistema de generación de música simbólica de videojuegos VRAE[editar]

El trabajo de investigación de 2014 sobre "Codificadores automáticos recurrentes variacionales" intentó generar música basada en canciones de 8 videojuegos diferentes. Este proyecto es uno de los pocos realizado exclusivamente en música de videojuegos. La red neuronal en el proyecto fue capaz de generar datos que eran muy similares a los datos de los juegos de los que se entrenó.[28]​ Desafortunadamente, los datos generados no se tradujeron en música de buena calidad.

Referencias[editar]

  1. a b Justesen, Niels; Bontrager, Philip; Togelius, Julian; Risi, Sebastian (2019). «Deep Learning for Video Game Playing». IEEE Transactions on Games: 1. ISSN 2475-1502. arXiv:1708.07902. doi:10.1109/tg.2019.2896986. 
  2. a b c d Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent et al. (6 de diciembre de 2018). «A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play». Science 362 (6419): 1140-1144. ISSN 0036-8075. PMID 30523106. doi:10.1126/science.aar6404. 
  3. a b c Chollet, Francois, Verfasser. (28 de octubre de 2017). Deep learning with Python. ISBN 9781617294433. OCLC 1019988472. 
  4. a b c d e f «AlphaStar: Mastering the Real-Time Strategy Game StarCraft II». DeepMind. Archivado desde el original el 24 de enero de 2019. Consultado el 4 de junio de 2019. 
  5. a b c Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; van den Driessche, George; Schrittwieser, Julian; Antonoglou, Ioannis et al. (January 2016). «Mastering the game of Go with deep neural networks and tree search». Nature 529 (7587): 484-489. ISSN 0028-0836. PMID 26819042. doi:10.1038/nature16961. 
  6. a b «OpenAI Five». OpenAI. 25 de junio de 2018. Consultado el 4 de junio de 2019. 
  7. Russell, Stuart J. (Stuart Jonathan) (2015). Artificial intelligence : a modern approach. Norvig, Peter (Third Indian edición). Noida, India. ISBN 9789332543515. OCLC 928841872. 
  8. Clune, Jeff; Stanley, Kenneth O.; Lehman, Joel; Conti, Edoardo; Madhavan, Vashisht; Such, Felipe Petroski (18 de diciembre de 2017). Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning. arXiv:1712.06567v3. 
  9. Zhen, Jacky Shunjie; Watson, Ian (2013), «Neuroevolution for Micromanagement in the Real-Time Strategy Game Starcraft: Brood War», Lecture Notes in Computer Science (Springer International Publishing): 259-270, ISBN 9783319036793, doi:10.1007/978-3-319-03680-9_28 .
  10. Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas et al. (October 2017). «Mastering the game of Go without human knowledge». Nature 550 (7676): 354-359. ISSN 0028-0836. doi:10.1038/nature24270. 
  11. Tsing, Rodney; Repp, Jacob; Ekermo, Anders; Lawrence, David; Brunasso, Anthony; Keet, Paul; Calderone, Kevin; Lillicrap, Timothy et al. (16 de agosto de 2017). StarCraft II: A New Challenge for Reinforcement Learning. arXiv:1708.04782v1. 
  12. a b «OpenAI Five». OpenAI. Consultado el 4 de junio de 2019. 
  13. a b «How to Train Your OpenAI Five». OpenAI. 15 de abril de 2019. Consultado el 4 de junio de 2019. 
  14. xavdematos. «Meet the computer that's learning to kill and the man who programmed the chaos». Engadget. Consultado el 4 de junio de 2019. 
  15. Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent et al. (6 de diciembre de 2018). «A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play». Science 362 (6419): 1140-1144. ISSN 0036-8075. PMID 30523106. doi:10.1126/science.aar6404. 
  16. Sweetser, Penelope; Wyeth, Peta (1 de julio de 2005). «GameFlow». Computers in Entertainment 3 (3): 3. ISSN 1544-3574. doi:10.1145/1077246.1077253. 
  17. Lample, Guillaume; Chaplot, Devendra Singh (2017). «Playing FPS Games with Deep Reinforcement Learning». Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence. AAAI'17 (San Francisco, California, USA: AAAI Press): 2140-2146. 
  18. Yin-Poole, Wesley (16 de julio de 2012). «How many weapons are in Borderlands 2?». Eurogamer. Consultado el 4 de junio de 2019. 
  19. «Terrain generation, Part 1». The Word of Notch. Archivado desde el original el 11 de marzo de 2019. Consultado el 4 de junio de 2019. 
  20. Parkin, Simon. «A Science Fictional Universe Created by Algorithms». MIT Technology Review. Consultado el 4 de junio de 2019. 
  21. Togelius, Julian; Shaker, Noor; Nelson, Mark J. (2016), «Introduction», Procedural Content Generation in Games (Springer International Publishing): 1-15, ISBN 9783319427140, doi:10.1007/978-3-319-42716-4_1 .
  22. Summerville, Adam; Snodgrass, Sam; Guzdial, Matthew; Holmgard, Christoffer; Hoover, Amy K.; Isaksen, Aaron; Nealen, Andy; Togelius, Julian (September 2018). «Procedural Content Generation via Machine Learning (PCGML)». IEEE Transactions on Games 10 (3): 257-270. ISSN 2475-1502. arXiv:1702.00539. doi:10.1109/tg.2018.2846639. 
  23. Hastings, Erin J.; Guha, Ratan K.; Stanley, Kenneth O. (September 2009). «Evolving content in the Galactic Arms Race video game». 2009 IEEE Symposium on Computational Intelligence and Games (IEEE): 241-248. ISBN 9781424448142. doi:10.1109/cig.2009.5286468. 
  24. Summerville, Adam. «MCMCTS PCG 4 SMB: Monte Carlo Tree Search to Guide Platformer Level Generation». www.aaai.org. Archivado desde el original el 17 de octubre de 2021. Consultado el 4 de junio de 2019. 
  25. Snodgrass, Sam; Ontañón, Santiago (August 2017). «Player Movement Models for Video Game Level Generation». Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (California: International Joint Conferences on Artificial Intelligence Organization): 757-763. ISBN 9780999241103. doi:10.24963/ijcai.2017/105. 
  26. Summerville, James. «Sampling Hyrule: Multi-Technique Probabilistic Level Generation for Action Role Playing Games». www.aaai.org. Archivado desde el original el 17 de octubre de 2021. Consultado el 4 de junio de 2019. 
  27. Pachet, François-David; Hadjeres, Gaëtan; Briot, Jean-Pierre (5 de septiembre de 2017). Deep Learning Techniques for Music Generation - A Survey. arXiv:1709.01620v3. 
  28. van Amersfoort, Joost R.; Fabius, Otto (20 de diciembre de 2014). Variational Recurrent Auto-Encoders. arXiv:1412.6581v6.