Agente inteligente (inteligencia artificial)

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
Agente Inteligente Simple.

Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales percepciones y responder o actuar en su entorno de manera racional, es decir, de manera correcta y tendiendo a maximizar un resultado esperado. Es capaz de percibir su medio ambiente con la ayuda de sensores y actuar en ese medio utilizando actuadores (elementos que reaccionan a un estímulo realizando una acción).

En este contexto la racionalidad es la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado. Este concepto de racionalidad es más general y por ello más adecuado que inteligencia (la cual sugiere entendimiento) para describir el comportamiento de los agentes inteligentes. Por este motivo es mayor el consenso en llamarlos agentes racionales.

Un agente inteligente puede ser una entidad física o virtual. Si bien el término agente racional se refiere a agentes artificiales en el campo de la Inteligencia Artificial, también puede considerarse agentes racionales a los animales incluido el hombre.

Los agentes inteligentes se describen esquemáticamente como un sistema funcional abstracto. Por esta razón, los agentes inteligentes son a veces llamado Agentes Inteligentes Abstractos (AIA) para distinguirlos de sus implementaciones del mundo real como sistemas informáticos, los sistemas biológicos, o de organizaciones. Algunas definiciones de agentes inteligentes hacen énfasis en su autonomía por lo que prefieren el término agente inteligente autónomo. Y otros (en particular, Russell y Norvig (2003)) considera conducta dirigida a objetivos como la esencia de lo inteligente y prefieren un término tomado de la economía "Agente Racional".

En Ciencias de la Computación el término agente inteligente puede ser usado para referirse a un agente de software que tiene algo de inteligencia, independientemente de si no es un agente racional por definición de Russell y Norvig. Por ejemplo, programas autónomos utilizados para asistencia de un operador o de minería de datos (a veces denominado robots) son también llamados "agentes inteligentes".


Un agente está formado por una arquitectura y un programa. El programa tiene que ser apropiado para la arquitectura. Hay cuatro tipos básicos de programas para agentes:

  • Agentes reactivos simples.

Es el tipo de agente más sencillo. Seleccionan las acciones sobre la base de las percepciones actuales, ignorando el resto de las percepciones históricas. Sigue la regla de condición-acción. Algunas desventajas son las siguientes: Inteligencia muy limitada, ejor funcionamiento en entornos totalmente observables, bucles infinitos.

  • Agentes reactivos basados en modelos.

El agente debe mantener un estado interno que dependa de la historia percibida y que refleje alguno de los aspectos no observables del estado actual.\\ La actualización de dicho estado requiere codificar dos tipos de conocimiento:

- Información acerca de cómo evoluciona el mundo independientemente del agente.

- Información sobre cómo afectan al mundo las acciones del agente.

Este conocimiento se conoce como modelo del mundo.

  • Agentes basados en objetivos.

El conocimiento sobre el estado actual del mundo no siempre es suficiente. Además de la descripción del estado actual, el agente requiere información sobre su meta. El programa del agente puede combinar con información sobre los resultados de las acciones posibles para elegir aquellas que ayuden a alcanzar el objetivo. En ocasiones, la selección de acciones basadas en objetivos es directa. Cuando se alcanza el objetivo como resultado de una acción individual. Puede ser complicado en otras ocasiones. Cuando se tienen que considerar secuencias complejas para alcanzar el objetivo.

Un agente basado en objetivos y basado en modelos, que almacena información del estado del mundo así como del conjunto de objetivos que intenta alcanzar, y que es capaz de seleccionar la acción que eventualmente lo guiará hacia la consecución de sus objetivos.

La toma de decisiones en estos agentes es distinta de las reglas de condición acción. Se tienen en cuenta consideraciones sobre el futuro. Parece menos eficiente, pero es más flexible. El conocimiento que tiene para su decisión está representado explícitamente y puede modificarse.

  • Agentes basados en la utilidad.

Las metas no bastan para generar comportamientos de calidad en la mayoría de los entornos. El agente selecciona un estado del mundo basado en la utilidad. La función de utilidad expresa numéricamente el nivel de utilidad de cada estado. Esta permite tomar decisiones racionales en dos tipos de casos con metas inadecuadas.

- Cuando haya objetivos conflictivos y solo algunos de ellos sean alcanzables.

- Cuando haya varios objetivos por los que se pueda guiar el agente y ninguno de ellos se pueda alcanzar con certeza.

Un agente basado en utilidad y basado en modelos. Utiliza un modelo del mundo, junto con una función de utilidad que calcula sus preferencias entre los estados del mundo. Después selecciona la acción que le lleve a alcanzar la mayor utilidad esperada, que se calcula haciendo la media de todos los estados resultantes posibles, ponderado con la probabilidad del resultado.

Entornos de Trabajo[editar]

Las propiedades de los entornos de trabajo determinan, hasta cierto punto, el diseño más adecuado para el agente.


Observable vs Parcialmente observable: Se considera que todas las células fuera del espacio del autómata toman un valor fijo.

Determinista vs Estocástico: Es determinista si el siguiente estado del medio está totalmente determinado por el estado actual y la acción ejecutada por el agente. Es estocástico si el siguiente estado es independiente al estado actual. Si es determinista, excepto para las acciones de otros agentes, entonces el medio es estratégico.

Episódico vs secuencial: En el episódico la experiencia del agente se divide en episodios atómicos, cada episodio consiste en la percepción del agente y la realización de una única acción posterior. En entornos secuenciales la decisión presente puede afectar decisiones futuras.

Estático vs dinámico: Si el entorno puede cambiar cuando el agente está deliberando, se dice que el entorno es dinámico; de otra manera, es estático. Si el entorno no cambia con el tiempo, pero cambia el rendimiento del agente, se dice que el medio es semidinámico.

Discreto vs Continuo: Se puede aplicar al estado del medio, a la forma en la que se maneja el tiempo y a las percepciones y acciones del agente.

Ejemplos[editar]

Como ejemplos de entidades físicas pueden nombrarse:

  • un robot de comportamiento variable autorregulado (ya sea que su comportamiento sea determinado por software o incorporado directamente en la electrónica),
  • una computadora que ejecuta un software de diagnóstico médico y muestra resultados en una pantalla para ayudar a decidir a un médico,
  • una computadora especializada que controla un helicóptero en maniobras peligrosas para un hombre.

Ejemplos de entidad puramente virtual serían:

  • un software de descubrimiento de patrones en Internet que sólo interactúa con otros software.
  • un software softbot que simula a una persona en un juego de computadora, tal como un jugador de ajedrez, un jugador de fútbol contrincante o un conductor de carreras de automóviles, etc.

Clasificación[editar]

Es posible clasificar a los agentes inteligentes en 6 categorías principales:

  1. agentes reactivos
  2. agentes reactivos basados en modelo
  3. agentes basados en objetivos
  4. agentes basados en utilidad
  5. agentes que aprenden
  6. agentes de consultas

La racionalidad es necesaria[editar]

En muchos textos se define agente inteligente como todo agente capaz de tener conciencia de su entorno y actuar sobre él. No obstante es necesario exigir que estas decisiones sean racionales en el sentido de que persigan algún fin.

Vamos a mostrarlo con un contraejemplo: cuando un fotón con la suficiente energía incide sobre un átomo, puede arrancar de él un electrón. Podríamos considerar al átomo inteligente puesto que percibe su entorno (la incidencia del fotón) y actúa sobre su entorno (emite un electrón). La ausencia de relación entre la emisión del electrón y cualquier hipotético interés del átomo muestra que este no es un agente inteligente pese a verificar la definición de Stuart Russell.

Sin ese término no tendría sentido la palabra racionalidad.

La conducta de un agente no suele ser la óptima[editar]

Paradójicamente la conducta de un agente rara vez es la óptima. La razón es sencilla: calcular el óptimo de un criterio de un modo suficientemente bueno como para ser considerado razonable es muy difícil cuando en el problema planteado concurren múltiples restricciones. Un ejemplo sería el cálculo de la mejor ala para un avión, donde el agente tendría que ser capaz de tener en cuenta criterios tan dispares como la aerodinámica, la compatibilidad con el resto de componentes de la aeronave, o criterios económicos, y restricciones tales como limitaciones en peso de la propia ala, el peso total de la aeronave, las normativas aplicables, etc. En el otro extremo se encuentran problemas como el cálculo del máximo de un polinomio de segundo grado, en los que el criterio es muy sencillo -es un polinomio de segundo grado- y no concurre ninguna restricción.

Cuando el criterio es una función real de muchas variables y las restricciones también, los cálculos son mucho más complicados. Algunas veces se puede lograr una buena aproximación, pero si el agente ha de tomar la decisión en muy poco tiempo, deberá conformarse con la mejor aproximación que pueda calcular en el escaso tiempo de que dispone.

Por otra parte, no es tan fácil inducir el criterio que permite comparar las distintas estrategias: ¿cómo se puede expresar con una ecuación simple lo que más le conviene a un lagarto que está cazando bajo el sol?


Enlaces externos[editar]

Véase también[editar]