Neurona de McCulloch-Pitts

De Wikipedia, la enciclopedia libre

La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial.

El resultado del cálculo en una neurona consiste en realizar una suma ponderada de las entradas, seguida de la aplicación de una función no lineal, como se ilustra en la siguiente figura

Esto se expresa matemáticamente como:

siendoː

  • es la suma ponderada.
  • es el valor de la i-ésima entrada (input).
  • es el peso (weights) de la conexión entre la i-ésima entrada y la neurona.
  • es el valor umbral (threshold)
  • o es la salida (output) de la neurona.
  • s es la función no lineal conocida como función de activación.

La función de activación que se usa esː

La suma ponderada se puede expresar de una manera más compacta usando el producto de matrices:

siendoː

y .

y son los vectores extendidos de pesos y de entrada, respectivamente.

También se puede simplificar la representación gráfica de la siguiente manera:

Historia[editar]

El modelo neuronal de McCulloch y Pitts de 1943, Threshold Logic Unit (TLU), o Linear Threshold Unit,[1]​ fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace imprecisa dicha implantación con respecto al comportamiento teórico derivado del modelo.

Usos de las neuronas[editar]

  • Permite hacer funciones lógicas
  • Primera aproximación a las redes neuronales artificiales
  • Capacidad de computación universal (puede simular cualquier programa computable)

Autómatas finitos equivalentes a células[editar]

Para cada célula existe un AF equivalente, para ello tenemos que:

  1. Q del AFD y. a.S. célula etiquetada con qa, h = 2y una entrada activadora externa al circuito, a
  2. Se añade una rama excitadora para cada célula que contenga q
  3. Añadir célula (a) con h=1 y que recibe 1 única entrada del exterior, correspondiente al símbolo inicial de la cadena
  4. Se añade una rama excitadora desde la salida de la célula a a cada una de las células cuya etiqueta contenga q0
  5. Se introduce una célula con etiqueta F, con h = 2 y que recibe una única entrada externa, correspondiente al símbolo final de cadena
  6. Se añade una rama excitadora hacia la célula F desde cada una de las células del circuito que envíe al menos una rama excitadora hacia cualquier célula cuya etiqueta contenga uno de los estados finales q.

Referencias[editar]

  1. D. Michie, D.J. Spiegelhalter, C.C. Taylor (eds). Machine Learning, Neural and Statistical Classification, 1994. [1]
  2. R. Rojas. Neural Networks: A Systematic Introduction, Springer, 1996 .ISBN 3-540-60505-3.
  1. Martin Anthony (enero de 2001). Discrete Mathematics of Neural Networks: Selected Topics. SIAM. pp. 3-. ISBN 978-0-89871-480-7. 

Enlaces externos[editar]