Diferencia entre revisiones de «Almacenamiento de memoria»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Sin resumen de edición
Cetyswiki (discusión · contribs.)
Agregué información
Línea 21: Línea 21:
== Modelos ==
== Modelos ==


Se han propuesto varios [[modelos de memoria]] para dar cuenta de los diferentes tipos de procesos de recuperación, incluida la recuperación con claves, la [[recuperación libre]] y la recuperación en serie. Sin embargo, para explicar el proceso de recuperación, el modelo de memoria debe identificar cómo una memoria codificada puede residir en el almacenamiento de la memoria durante un período prolongado hasta que se acceda nuevamente a la memoria, durante el proceso de recuperación; pero no todos los modelos utilizan la terminología de la memoria a corto y largo plazo para explicar el almacenamiento de memoria; La teoría del almacenamiento dual y una versión modificada del modelo de memoria Atkinson-Shiffrin (Atkinson 1968) utiliza el almacenamiento de memoria a corto y largo plazo, pero otros no.

=== Modelo de memoria distribuida multi-traza. ===
El modelo de memoria distribuida de múltiples trazados sugiere que las memorias que se están codificando se convierten en vectores de valores, y cada cantidad escalar de un vector representa un atributo diferente del elemento a codificar. Tal noción fue sugerida por primera vez por las primeras teorías de Hooke (1969) y Semon (1923). Una sola memoria se distribuye a múltiples atributos o características, de modo que cada atributo representa un aspecto de la memoria que se está codificando. Dicho vector de valores se agrega luego a la matriz de memoria o a una matriz, compuesta de diferentes trazas o vectores de memoria. Por lo tanto, cada vez que se codifica una nueva memoria, dicha memoria se convierte en un vector o una traza, compuesta por [[cantidades escalares]] que representan una variedad de atributos, que luego se agregan a la matriz de memoria preexistente y en constante crecimiento, compuesta de múltiples trazas: De ahí el nombre del modelo.

Una vez que las trazas de memoria correspondientes a la memoria específica se almacenan en la matriz, para recuperar la memoria para el proceso de recuperación, se debe indicar la matriz de memoria con una sonda específica, que se usaría para calcular la similitud entre el vector de prueba y los vectores almacenados en la matriz de memoria. Debido a que la matriz de memoria está en constante crecimiento y se agregan nuevos rastros, uno tendría que realizar una búsqueda paralela a través de todos los rastros presentes dentro de la matriz de memoria para calcular la similitud, cuyo resultado puede usarse para realizar un reconocimiento asociativo, o con probabilística regla de elección, utilizada para realizar una recuperación de lo señalizado.

Si bien se ha afirmado que la memoria humana parece ser capaz de almacenar una gran cantidad de información, en la medida en que algunos pensaron una cantidad infinita, la presencia de una matriz cada vez mayor dentro de la memoria humana parece improbable. Además, el modelo sugiere que para realizar el proceso de recuperación, se requiere una búsqueda paralela entre cada traza que reside dentro de la matriz en constante crecimiento, lo que también genera dudas sobre si dichos cálculos se pueden realizar en un corto período de tiempo. Sin embargo, tales dudas han sido cuestionadas por los hallazgos de Gallistel y King<ref>{{cite book|last=Gallistel|first=C.R.|last2=King|title=Memory and the computational brain: why cognitive science will transform neuroscience|publisher=Wiley-Blackwell|year=2009}}</ref>  que presentan evidencia sobre las enormes capacidades computacionales del cerebro que pueden ser compatibles con dicho apoyo paralelo.

=== Modelos de redes neuronales ===
Artículo principal: [[Red Hopfield]]

El modelo de rastreo múltiple tenía dos limitaciones clave: una, la noción de la presencia de una matriz cada vez mayor en la memoria humana suena inverosímil; y dos, las búsquedas computacionales de similitud contra millones de trazas que estarían presentes en la matriz de memoria para calcular la similitud suena mucho más allá del alcance del proceso de recuperación humana. El modelo de [[red neuronal]] es el modelo ideal en este caso, ya que supera las limitaciones planteadas por el modelo de rastreo múltiple y mantiene las características útiles del modelo también.

El modelo de red neuronal asume que las [[neuronas]] en una red neuronal forman una red compleja con otras neuronas, formando una red altamente interconectada; cada neurona se caracteriza por el valor de activación, y la conexión entre dos neuronas se caracteriza por el valor de peso. La interacción entre cada neurona se caracteriza por la regla dinámica de McCullough-Pitts,<ref>{{cite journal|last=McCullough|first=W.S.|author2=Pitts|title=A logical calculus of the ideas immanent in nervous activity.|journal=Bulletin of Mathematical Biophysics|year=1943|volume=5|issue=4|pages=115–133|doi=10.1007/BF02478259}}</ref> y el cambio de peso y las conexiones entre las neuronas resultantes del aprendizaje están representados por la [[regla de aprendizaje de Hebbian]].<ref>{{cite book|last=Hebb|first=D.O.|title=Organization of Behavior|year=1949}}</ref><ref>{{cite journal|last=Moscovitch|first=M.|title=The cognitive neuroscience of remote episodic, semantic and spatial memory|journal=Current Opinion in Neurobiology|year=2006|volume=16|pages=179–190|pmid=16564688|doi=10.1016/j.conb.2006.03.013|issue=2}}</ref>

Anderson<ref>{{cite journal|last=Anderson|first=J.A.|title=Two Models for Memory Organization using Interacting Traces|journal=Mathematical Biosciences|year=1970|volume=8|pages=137–160|doi=10.1016/0025-5564(70)90147-1}}</ref> muestra que la combinación de la regla de aprendizaje de Hebbian y la regla dinámica de McCullough-Pitts permite a la red generar una matriz de ponderación que puede almacenar asociaciones entre diferentes patrones de memoria; dicha matriz es la forma de almacenamiento de memoria para el modelo de red neuronal. Las principales diferencias entre la matriz de hipótesis de trazas múltiples y el modelo de red neuronal es que mientras que la nueva memoria indica la extensión de la matriz existente para la hipótesis de trazas múltiples, la matriz de ponderación del modelo de red neuronal no se extiende; más bien, se dice que el peso se actualiza con la introducción de una nueva asociación entre las neuronas.

Usando la matriz de peso y la regla de aprendizaje / dinámica, las neuronas indicadas con un valor pueden recuperar el valor diferente que es idealmente una aproximación cercana del vector de memoria objetivo deseado.

Como la matriz de peso de Anderson entre las neuronas solo recuperará la aproximación del elemento de destino cuando se indique, se buscó una versión modificada del modelo para poder recuperar la memoria de destino exacta cuando se generó una referencia. Hopfield Net<ref>{{cite journal|last=Hopfield|first=J.J.|title=Neural Networks and Physical Systems with Emergent Collective Computational Abilities|journal=Proceedings of the National Academy of Sciences|year=1982|volume=79|issue=8|pages=2554–2558|pmc=346238|doi=10.1073/pnas.79.8.2554|pmid=6953413}}</ref> es actualmente el modelo de red asociativa neuronal más simple y más popular; el modelo permite la recuperación de un vector objetivo claro cuando se indica con la parte o la versión 'ruidosa' del vector.

La matriz de peso de Hopfield Net, que almacena la memoria, se parece mucho a la utilizada en la matriz de peso propuesta por Anderson. Nuevamente, cuando se introduce una nueva asociación, se dice que la matriz de ponderación está "actualizada" para acomodar la introducción de una nueva memoria; se almacena hasta que la matriz está marcada por un vector diferente.


== Referencias ==
== Referencias ==

Revisión del 17:32 8 nov 2018

La memoria es la capacidad de la mente para almacenar y recordar información que se adquirió previamente. La memoria se procesa a través de tres etapas fundamentales de procesamiento: almacenamiento, codificación y recuperación. El almacenamiento se refiere al proceso de colocar información recién adquirida en la memoria, que se modifica en el cerebro para facilitar su almacenamiento. Codificar esta información hace que el proceso de recuperación sea más fácil para el cerebro, donde se puede recuperar y llevar a un pensamiento consciente. La psicología de la memoria moderna diferencia entre los dos tipos distintos de almacenamiento de memoria: la memoria a corto plazo y la memoria a largo plazo. Además, diferentes modelos de memoria han sugerido variaciones de la memoria existente a corto y largo plazo para tener en cuenta las diferentes formas de almacenar la memoria. La memoria puede definirse como el circuito o un dispositivo que puede almacenar la información, como datos de programas y resultados. La memoria se utiliza generalmente para la forma más rápida y el almacenamiento para la forma más lenta

Tipos

Memoria a corto plazo

Artículo principal: Memoria a corto plazo

La memoria a corto plazo se codifica en formas auditivas, visuales, espaciales y táctiles. La memoria a corto plazo está estrechamente relacionada con la memoria de trabajo. Baddeley sugirió que la información almacenada en la memoria a corto plazo se está deteriorando continuamente, lo que eventualmente puede llevar al olvido en ausencia de ensayos. [1]​George A. Miller sugirió en su artículo que la capacidad del almacenamiento de memoria a corto plazo es de aproximadamente siete elementos, más/menos dos, también conocido como el número 7,[2]​ pero se ha demostrado que este número está sujeto a la variabilidad de los números, incluido el tamaño, la similitud y otras propiedades de los trozos.[3]​ El lapso de memoria varía; es más bajo para palabras multisilábicas que para palabras más cortas. En general, la memoria para los contenidos verbales, es decir, letras, palabras y dígitos, depende de la duración del tiempo que se tarda en hablar estos contenidos en voz alta y en el grado de lexicalidad (relacionado con las palabras o el vocabulario de un idioma que se distingue de su lenguaje). Gramática y construcción) de los contenidos. La capacidad de recordar palabras. Las características tales como la duración del tiempo hablado para cada palabra, conocido como el efecto de longitud de palabra, o cuando las palabras son similares entre sí hacen que se recuerden menos palabras.

La fragmentación

La fragmentación es el proceso de combinar piezas de información para aumentar la cantidad limitada de información que la memoria de trabajo puede retener. La fragmentación incluye un proceso mediante el cual una persona organiza el material en grupos sensibles.[4]​ Este tipo de proceso de memoria se ve con frecuencia con números de teléfono, tarjetas de crédito, número de casa, etc. Con los números de teléfono de América del Norte, por ejemplo, las personas suelen dividir los tres primeros números del código de área, los tres siguientes y luego los últimos Cuatro números en serie.

Ensayo

El ensayo es el proceso por el cual la información se retiene en la memoria a corto plazo mediante la repetición consciente de la palabra, frase o número. Si la información tiene un significado suficiente para la persona o si se repite lo suficiente, puede codificarse en la memoria a largo plazo. Hay dos tipos de ensayo: ensayo de mantenimiento y ensayo elaborado. El ensayo de mantenimiento consiste en repetir constantemente la palabra o frase de palabras para recordar.[5]​  Recordar un número de teléfono es uno de los mejores ejemplos de esto. El ensayo de mantenimiento se usa principalmente para la capacidad a corto plazo de recordar información. El ensayo elaborado implica la asociación de datos antiguos con información nueva.

Memoria a largo plazo

Artículo principal: Memoria a largo plazo

En contraste con la memoria a corto plazo, la memoria a largo plazo se refiere a la capacidad de retener información durante un tiempo prolongado y es posiblemente el componente más complejo del sistema de memoria humana. El modelo de memoria de Atkinson-Shiffrin (Atkinson 1968) sugiere que los elementos almacenados en la memoria a corto plazo pasan a la memoria a largo plazo mediante la práctica y el uso repetido. El almacenamiento a largo plazo puede ser similar al aprendizaje: el proceso mediante el cual la información que puede ser necesaria nuevamente se almacena para su recuperación bajo demanda.[6]​ El proceso de localizar esta información y traerla de vuelta a la memoria de trabajo se denomina recuperación. Este conocimiento que se recuerda fácilmente es un conocimiento explícito, mientras que la mayoría de la memoria a largo plazo es un conocimiento implícito y no es fácilmente recuperable. Los científicos especulan que el hipocampo está involucrado en la creación de la memoria a largo plazo. No está claro dónde se almacena la memoria a largo plazo, aunque hay pruebas que muestran que la memoria a largo plazo se almacena en varias partes del sistema nervioso.[7]​ La memoria a largo plazo es permanente. La memoria se puede recuperar, lo que, de acuerdo con el modelo de búsqueda de memoria de almacenamiento dual, mejora la memoria a largo plazo. El olvido puede ocurrir cuando la memoria no se puede recuperar en ocasiones posteriores.

Modelos

Se han propuesto varios modelos de memoria para dar cuenta de los diferentes tipos de procesos de recuperación, incluida la recuperación con claves, la recuperación libre y la recuperación en serie. Sin embargo, para explicar el proceso de recuperación, el modelo de memoria debe identificar cómo una memoria codificada puede residir en el almacenamiento de la memoria durante un período prolongado hasta que se acceda nuevamente a la memoria, durante el proceso de recuperación; pero no todos los modelos utilizan la terminología de la memoria a corto y largo plazo para explicar el almacenamiento de memoria; La teoría del almacenamiento dual y una versión modificada del modelo de memoria Atkinson-Shiffrin (Atkinson 1968) utiliza el almacenamiento de memoria a corto y largo plazo, pero otros no.

Modelo de memoria distribuida multi-traza.

El modelo de memoria distribuida de múltiples trazados sugiere que las memorias que se están codificando se convierten en vectores de valores, y cada cantidad escalar de un vector representa un atributo diferente del elemento a codificar. Tal noción fue sugerida por primera vez por las primeras teorías de Hooke (1969) y Semon (1923). Una sola memoria se distribuye a múltiples atributos o características, de modo que cada atributo representa un aspecto de la memoria que se está codificando. Dicho vector de valores se agrega luego a la matriz de memoria o a una matriz, compuesta de diferentes trazas o vectores de memoria. Por lo tanto, cada vez que se codifica una nueva memoria, dicha memoria se convierte en un vector o una traza, compuesta por cantidades escalares que representan una variedad de atributos, que luego se agregan a la matriz de memoria preexistente y en constante crecimiento, compuesta de múltiples trazas: De ahí el nombre del modelo.

Una vez que las trazas de memoria correspondientes a la memoria específica se almacenan en la matriz, para recuperar la memoria para el proceso de recuperación, se debe indicar la matriz de memoria con una sonda específica, que se usaría para calcular la similitud entre el vector de prueba y los vectores almacenados en la matriz de memoria. Debido a que la matriz de memoria está en constante crecimiento y se agregan nuevos rastros, uno tendría que realizar una búsqueda paralela a través de todos los rastros presentes dentro de la matriz de memoria para calcular la similitud, cuyo resultado puede usarse para realizar un reconocimiento asociativo, o con probabilística regla de elección, utilizada para realizar una recuperación de lo señalizado.

Si bien se ha afirmado que la memoria humana parece ser capaz de almacenar una gran cantidad de información, en la medida en que algunos pensaron una cantidad infinita, la presencia de una matriz cada vez mayor dentro de la memoria humana parece improbable. Además, el modelo sugiere que para realizar el proceso de recuperación, se requiere una búsqueda paralela entre cada traza que reside dentro de la matriz en constante crecimiento, lo que también genera dudas sobre si dichos cálculos se pueden realizar en un corto período de tiempo. Sin embargo, tales dudas han sido cuestionadas por los hallazgos de Gallistel y King[8]​  que presentan evidencia sobre las enormes capacidades computacionales del cerebro que pueden ser compatibles con dicho apoyo paralelo.

Modelos de redes neuronales

Artículo principal: Red Hopfield

El modelo de rastreo múltiple tenía dos limitaciones clave: una, la noción de la presencia de una matriz cada vez mayor en la memoria humana suena inverosímil; y dos, las búsquedas computacionales de similitud contra millones de trazas que estarían presentes en la matriz de memoria para calcular la similitud suena mucho más allá del alcance del proceso de recuperación humana. El modelo de red neuronal es el modelo ideal en este caso, ya que supera las limitaciones planteadas por el modelo de rastreo múltiple y mantiene las características útiles del modelo también.

El modelo de red neuronal asume que las neuronas en una red neuronal forman una red compleja con otras neuronas, formando una red altamente interconectada; cada neurona se caracteriza por el valor de activación, y la conexión entre dos neuronas se caracteriza por el valor de peso. La interacción entre cada neurona se caracteriza por la regla dinámica de McCullough-Pitts,[9]​ y el cambio de peso y las conexiones entre las neuronas resultantes del aprendizaje están representados por la regla de aprendizaje de Hebbian.[10][11]

Anderson[12]​ muestra que la combinación de la regla de aprendizaje de Hebbian y la regla dinámica de McCullough-Pitts permite a la red generar una matriz de ponderación que puede almacenar asociaciones entre diferentes patrones de memoria; dicha matriz es la forma de almacenamiento de memoria para el modelo de red neuronal. Las principales diferencias entre la matriz de hipótesis de trazas múltiples y el modelo de red neuronal es que mientras que la nueva memoria indica la extensión de la matriz existente para la hipótesis de trazas múltiples, la matriz de ponderación del modelo de red neuronal no se extiende; más bien, se dice que el peso se actualiza con la introducción de una nueva asociación entre las neuronas.

Usando la matriz de peso y la regla de aprendizaje / dinámica, las neuronas indicadas con un valor pueden recuperar el valor diferente que es idealmente una aproximación cercana del vector de memoria objetivo deseado.

Como la matriz de peso de Anderson entre las neuronas solo recuperará la aproximación del elemento de destino cuando se indique, se buscó una versión modificada del modelo para poder recuperar la memoria de destino exacta cuando se generó una referencia. Hopfield Net[13]​ es actualmente el modelo de red asociativa neuronal más simple y más popular; el modelo permite la recuperación de un vector objetivo claro cuando se indica con la parte o la versión 'ruidosa' del vector.

La matriz de peso de Hopfield Net, que almacena la memoria, se parece mucho a la utilizada en la matriz de peso propuesta por Anderson. Nuevamente, cuando se introduce una nueva asociación, se dice que la matriz de ponderación está "actualizada" para acomodar la introducción de una nueva memoria; se almacena hasta que la matriz está marcada por un vector diferente.

Referencias

  1. Kumaran, D. (Apr 2008). «Short-Term Memory and the Human Hippocampus». Journal of Neuroscience 28 (15): 3837-3838. PMID 18400882. doi:10.1523/JNEUROSCI.0046-08.2008. 
  2. Millar, A.G. (1956). «The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information». Psychological Review 101 (2): 343-35. PMID 8022966. doi:10.1037/0033-295X.101.2.343. 
  3. Baddeley, A.D. (November 1966). «Short-term memory for word sequences as a function of acoustic, semantic and formal similarity». Quarterly Journal of Experimental Psychology 18 (4): 362-5. PMID 5956080. doi:10.1080/14640746608400055. 
  4. Ormrod, J. (2012). Human Learning (6th ed.). Pearson Education.
  5. Moore, T. (n.d.). Rehearsal. Retrieved November 6, 2014, from http://psychology.jrank.org/pages/539/Rehearsal.html
  6. Peterson, L. (1966). Short-term memory. Retrieved October 30, 2014, from http://www.nature.com/scientificamerican/journal/v215/n1/pdf/scientificamerican0766-90.pdf
  7. Warren, S. (1997). Remember this: Memory and the Brain. Retrieved November 1, 2014, from http://serendip.brynmawr.edu/biology/b103/f97/projects97/Warren.html
  8. Gallistel, C.R.; King (2009). Memory and the computational brain: why cognitive science will transform neuroscience. Wiley-Blackwell. 
  9. McCullough, W.S.; Pitts (1943). «A logical calculus of the ideas immanent in nervous activity.». Bulletin of Mathematical Biophysics 5 (4): 115-133. doi:10.1007/BF02478259. 
  10. Hebb, D.O. (1949). Organization of Behavior. 
  11. Moscovitch, M. (2006). «The cognitive neuroscience of remote episodic, semantic and spatial memory». Current Opinion in Neurobiology 16 (2): 179-190. PMID 16564688. doi:10.1016/j.conb.2006.03.013. 
  12. Anderson, J.A. (1970). «Two Models for Memory Organization using Interacting Traces». Mathematical Biosciences 8: 137-160. doi:10.1016/0025-5564(70)90147-1. 
  13. Hopfield, J.J. (1982). «Neural Networks and Physical Systems with Emergent Collective Computational Abilities». Proceedings of the National Academy of Sciences 79 (8): 2554-2558. PMC 346238. PMID 6953413. doi:10.1073/pnas.79.8.2554.