Estado-Acción-Recompensa-Estado-Acción (SARSA)

De Wikipedia, la enciclopedia libre

Estado-acción-recompensa-estado-acción (SARSA) es un algoritmo para el aprendizaje de una política de proceso de decisión de Markov, utilizado en el área de aprendizaje de refuerzo del aprendizaje automático. Fue propuesto por Rummery y Niranjan en una nota técnica[1]​ con el nombre de "Modified Connectionist Q-Learning" (Q-Learning conexionista modificado) (MCQ-L). El nombre alternativo SARSA, propuesto por Rich Sutton, sólo se mencionó como nota a pie de página.

Este nombre refleja el hecho de que la función principal para actualizar el valor Q depende del estado actual del agente "S1", la acción que elige el agente "A1", la recompensa "R2" que obtiene el agente por elegir esta acción, el estado "S2" en el que entra el agente después de realizar esa acción y, por último, la siguiente acción "A2" que elige el agente en su nuevo estado. El acrónimo de la quíntuple (St, At, Rt+1, St+1, At+1) es SARSA.[2]​ Algunos autores utilizan una convención ligeramente diferente y escriben la quíntuple (St, At, Rt, St+1, At+1), dependiendo del paso temporal en el que se asigne formalmente la recompensa. En el resto del artículo se utiliza la convención anterior.

Algoritmo[editar]

Un agente SARSA interactúa con el entorno y actualiza la política en función de las acciones realizadas, por lo que se conoce como algoritmo de aprendizaje sobre política. El valor Q de un estado-acción se actualiza mediante un error, ajustado por el índice de aprendizaje α. Los valores Q representan la posible recompensa recibida en el siguiente paso temporal por realizar la acción a en el estado s, más la recompensa futura descontada recibida de la siguiente observación del estado-acción.

El Q-learning de Watkin actualiza una estimación de la función de valor óptimo estado-acción basado en la recompensa máxima de las acciones disponibles. Mientras que SARSA aprende por sí mismo los valores Q asociados a la adopción de la política que sigue, el Q-learning de Watkin aprende los valores Q asociados a la adopción de la política óptima mientras sigue una política de exploración/explotación.

Algunas optimizaciones del aprendizaje Q de Watkin pueden aplicarse a SARSA.[3]

Hiperparámetros[editar]

Tasa de aprendizaje (alfa)[editar]

El índice de aprendizaje determina hasta qué punto la información recién adquirida anula la antigua. Un factor 0 hará que el agente no aprenda nada, mientras que un factor 1 hará que el agente sólo tenga en cuenta la información más reciente.

Factor de descuento (gamma)[editar]

El factor de descuento determina la importancia de las recompensas futuras. Un factor de descuento de 0 hace que el agente sea "oportunista", o "miope", por ejemplo,[4]​ ya que sólo tiene en cuenta las recompensas actuales, mientras que un factor cercano a 1 hará que se esfuerce por obtener una recompensa elevada a largo plazo. Si el factor de descuento es igual o superior a 1, el valor pueden divergir.

Condiciones iniciales (Q(S0, A0))[editar]

Dado que SARSA es un algoritmo iterativo, asume implícitamente una condición inicial antes de que se produzca la primera actualización. Un valor inicial alto (infinito), también conocido como "condiciones iniciales optimistas",[5]​ puede fomentar la exploración: no importa qué acción tenga lugar, la regla de actualización hace que tenga valores más altos que la otra alternativa, aumentando así su probabilidad de elección. En 2013 se sugirió que la primera recompensa podría utilizarse para restablecer las condiciones iniciales. Según esta idea, la primera vez que se realiza una acción, la recompensa se utiliza para fijar el valor de . Esto permite un aprendizaje inmediato en caso de recompensas deterministas fijas. Este enfoque de restablecimiento de las condiciones iniciales (RIC) parece ser coherente con el comportamiento humano en experimentos de elección binaria repetida.[6]

Véase también[editar]

Referencias[editar]

  1. Rummery & Niranjan (1994). Online Q-Learning using Connectionist Systems. 
  2. «6.4 Sarsa: On-Policy TD Control». incompleteideas.net. Consultado el 2 de marzo de 2024. 
  3. Wiering, Marco; Schmidhuber, Jürgen (1998). «"Fast Online Q(λ)"». Machine Learning. ISSN 0885-6125. doi:10.1023/A:1007562800292. 
  4. Richard_Ngo. Arguments against myopic training (en inglés). Consultado el 4 de marzo de 2024. 
  5. «2.7 Optimistic Initial Values». incompleteideas.net. Consultado el 4 de marzo de 2024. 
  6. Shteingart, H; Neiman, T; Loewenstein, Y (2013). «The Role of First Impression in Operant Learning». J Exp Psychol Gen. PMID 22924882. doi:10.1037/a0029550.