Aprendizaje no supervisado

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Aprendizaje no supervisado es un método de Aprendizaje Automático donde un modelo es ajustado a las observaciones. Se distingue del Aprendizaje supervisado por el hecho de que no hay un conocimiento a priori. En el aprendizaje no supervisado, un conjunto de datos de objetos de entrada es tratado. Así, el aprendizaje no supervisado típicamente trata los objetos de entrada como un conjunto de variables aleatorias, siendo construido un modelo de densidad para el conjunto de datos.

El aprendizaje no supervisado puede ser usado en conjunto con la Inferencia bayesiana para producir probabilidades condicionales (es decir, aprendizaje supervisado) para cualquiera de las variables aleatorias dadas. El Santo Grial del aprendizaje no supervisado es la creación de un código factorial de los datos, esto es, un código con componentes estadísticamente independientes. El aprendizaje supervisado normalmente funciona mucho mejor cuando los datos iniciales son primero traducidos en un código factorial.

El aprendizaje no supervisado también es útil para la compresión de datos: fundamentalmente, todos los algoritmos de compresión dependen tanto explícita como implícitamente de una distribución de probabilidad sobre un conjunto de entrada.

Otra forma de aprendizaje no supervisado es la agrupación (en inglés, clustering), el cual a veces no es probabilístico.

La Teoría de resonancia adaptativa (ART) permite variar el número de agrupaciones en función del tamaño del problema, permitiendo al usuario el control del grado de similitud entre miembros de las mismas agrupaciones en términos de una constante definida por el usuario llamada el parámetro de vigilancia. Las redes ART son también usadas en muchas tareas de reconocimiento de patrones, como el reconocimiento automático de objetivos o el procesamiento de señales sísmicas. La primera versión de ART fue "ART1", desarrollada por Carpenter y Grossberg (1988).

Características[editar]

En este apartado se muestran las principales características de las redes de neuronas artificiales no supervisadas:[1]

  • No necesitan de un profesor externo
  • Muestran cierto grado de Auto-organización
  • La red descubre en los datos de entrada y de forma autónoma: características, regularidades, correlaciones y categorías
  • Suelen requerir menores tiempos de entrenamiento que las supervisadas
  • Arquitectura simple. Habitualmente son: (una sola capa o Feed-forward)
  • Tipos fundamentales: Kohonen y Grossberg
  • Abordan los siguientes tipos de problemas: familiaridad, análisis de componentes principales, agrupamiento, prototipado y extracción y relación de características

Bibliografía[editar]

  • Horace Barlow, T. P. Kaushal, and G. J. Mitchison. Finding minimum entropy codes. Neural Computation, 1:412-423, 1989.
  • Jürgen Schmidhuber. Learning factorial codes by predictability minimization. Neural Computation, 4(6):863-879, 1992

Véase también[editar]

Enlaces externos[editar]

Referencias[editar]

  1. Aprendizaje no supervisado, Redes de Neuronas Artificiales, UC3M, RAI 2012.