Lernmatrix

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

La Lernmatrix de Steinbuch es el primer modelo matemático de memoria asociativa de que se tiene noticia, desarrollada en 1961 por el científico alemán Karl Steinbuch, quien publicó su artículo en una revista llamada Kybernetik, y a pesar de la importancia de su modelo y las potenciales aplicaciones, el trabajo pasó casi inadvertido.

La Lernmatrix es una memoria heteroasociativa que puede funcionar como un clasificador de patrones binarios si se escogen adecuadamente los patrones de salida; es un sistema de entrada y salida que al operar acepta como entrada un patrón binario x^\mu \in  A^n, A = \left \{  0,1\right \} y produce como salida la clase  y^\mu \in  A^p que le corresponde (de entre p clases diferentes), codificada ésta con un método simple, a saber :para representar la clase k \in  \left \{  1,2,\ldots,p\right \}, se asignan a las componentes del vector de salida y^\mu los siguientes valores: y_k^\mu = 1, y y_j^\mu = 0 para j = 1,2\ldots , k - 1, k + 1, \ldots p.

Fase de aprendizaje

Esquema de la fase de aprendizaje al incorporar la pareja de patrones de entrenamiento (x^\mu,y^\mu)\in A^n \times A^p

M=
\left.\begin{matrix}
  & {x^1}^\mu & {x^2}^\mu &\cdots &  {x^j}^\mu & \cdots & {x^n}^\mu\\ 
{y^1}^\mu & {m_1}_1  & {m_1}_2 & \cdots  & {m_1}_j & \cdots & {m_1}_n \\ 
 {y^2}^\mu& {m_2}_1 & {m_2}_2 & \cdots & {m_2}_j & \cdots & {m_2}_n \\ 
 \vdots& \vdots  &\vdots   &  & \vdots  &  &\vdots  \\ 
 {y^i}^\mu& {m_i}_1 & {m_i}_2 & \cdots & {m_i}_j & \cdots & {m_i}_n \\ 
\vdots& \vdots  &\vdots   &  & \vdots  &  &\vdots \\ 
 {y^p}^\mu&{m_p}_1 & {m_p}_2 & \cdots & {m_p}_j & \cdots & {m_p}_n
\end{matrix}\right|

Cada uno de los componentes {m_i}_j de M, la Lernmatrix de Steinbuch, tiene valor cero al inicio, y se actualiza de acuerdo con la regla {m_i}_j + \Delta{m_i}_j , donde:

\Delta {m_i}_j=\left\{\begin{matrix}
+\varepsilon \ si \ {x_i}^\mu=1={y_j}^\mu \\ 
\ \ \ -\varepsilon \ si \ {x_i}^\mu=0\ \mathbf{y}\ {y_j}^\mu=1 \\ 
0 \ en \ otro \  caso
\end{matrix}\right.

siendo \epsilon una constante positiva escogida previamente.

Fase de recuperación

La fase de recuperación consiste en encontrar la clase a la que pertenece un vector de entrada x^\omega \in A^n dado. Encontrar la clase significa obtener las coordenadas del vector y^\omega \in A^p que le corresponde al patron x^\omega; en virtud del método de construcción de los vectores y^\omega la clase debería obtenerse sin ambigüedad.

La i-ésima coordenada {y^\omega}_i del vector de clase y^\omega \in A^p se obtiene como lo indica la siguiente expresión, donde \vee es el operador máximo:

{y^\omega}_i=\left\{\begin{matrix}
1 \ si \ \sum_{j=1}^{n}{m_i}_j.{x^\omega}_j={\vee_{h=1}^p}[\sum_{j=1}^{n}m_{hj}.{x^\omega}_j]\\
0 \ en \ otro \ caso
\end{matrix}\right.

Referencias[editar]

  1. Steinbuch, K. (1961). Die Lernmatrix, Kybernetik, 1, 1, 36-45.
  2. Steinbuch, K. & Frank, H. Nichtdigitale Lernmatrizen als Perzeptoren, Kybernetik, 1, 3, 117-124.
  3. Díaz-de-León,J.L. & Yáñez,C.(1999). Memorias asociativas con respuesta perfecta y capacidad infinita, Memoria del TAINA’99, México, D.F.,23-38.