Almacenamiento (memoria)

Se han propuesto varios modelos de memoria para dar cuenta de los diferentes tipos de procesos de recuerdo, incluyendo el recuerdo inducido, el recuerdo libre y el recuerdo en serie. Sin embargo, para explicar el proceso de recuerdo, el modelo de memoria debe identificar cómo un recuerdo codificado puede residir en el almacenamiento de la memoria durante un período prolongado hasta que se accede de nuevo al recuerdo, durante el proceso de recuerdo; pero no todos los modelos utilizan la terminología de la memoria a corto y largo plazo para explicar el almacenamiento de la memoria; la teoría de la doble tienda y una versión modificada del modelo de memoria de Atkinson-Shiffrin (Atkinson 1968) utiliza el almacenamiento de la memoria a corto y largo plazo, pero otros no lo hacen.

Modelo de memoria distribuida de trazos múltiplesEditar

El modelo de memoria distribuida de trazos múltiples sugiere que los recuerdos que se codifican se convierten en vectores de valores, en los que cada cantidad escalar de un vector representa un atributo diferente del elemento que se codifica. Esta noción fue sugerida por primera vez por las primeras teorías de Hooke (1969) y Semon (1923). Un mismo recuerdo se distribuye en múltiples atributos, o rasgos, de manera que cada atributo representa un aspecto del recuerdo que se codifica. Dicho vector de valores se añade entonces a la matriz de memoria o a una matriz, compuesta por diferentes trazos o vectores de memoria. Por lo tanto, cada vez que se codifica una nueva memoria, dicha memoria se convierte en un vector o una traza, compuesta por cantidades escalares que representan variedad de atributos, que luego se añade a la matriz de memoria preexistente y siempre creciente, compuesta por múltiples trazas -de ahí el nombre del modelo.

Una vez que las trazas de memoria correspondientes a la memoria específica se almacenan en la matriz, para recuperar la memoria para el proceso de recuerdo uno debe cue la matriz de memoria con una sonda específica, que se utilizaría para calcular la similitud entre el vector de prueba y los vectores almacenados en la matriz de memoria. Dado que la matriz de memoria crece constantemente con la adición de nuevos vectores, habría que realizar una búsqueda paralela a través de todos los vectores presentes en la matriz de memoria para calcular la similitud, cuyo resultado puede utilizarse para llevar a cabo el reconocimiento asociativo o, con la regla de elección probabilística, para llevar a cabo un recuerdo con indicación.

Aunque se ha afirmado que la memoria humana parece ser capaz de almacenar una gran cantidad de información, hasta el punto de que algunos habían pensado que una cantidad infinita, la presencia de tal matriz en constante crecimiento dentro de la memoria humana suena inverosímil. Además, el modelo sugiere que, para llevar a cabo el proceso de recuerdo, es necesario realizar una búsqueda paralela entre cada uno de los rastros que residen dentro de la matriz en constante crecimiento, lo que también plantea dudas sobre si tales cálculos pueden realizarse en poco tiempo. Tales dudas, sin embargo, han sido desafiadas por los hallazgos de Gallistel y King, quienes presentan evidencia sobre las enormes capacidades computacionales del cerebro que pueden estar en apoyo de tal soporte paralelo.

Modelos de redes neuronalesEditar

Artículo principal: Red de Hopfield

El modelo de rastros múltiples tenía dos limitaciones clave: una, la noción de la presencia de una matriz siempre creciente en la memoria humana suena inverosímil; y dos, la búsqueda computacional de la similitud contra millones de rastros que estarían presentes en la matriz de la memoria para calcular la similitud suena mucho más allá del alcance del proceso de recuerdo humano. El modelo de red neuronal es el modelo ideal en este caso, ya que supera las limitaciones planteadas por el modelo de trazas múltiples y mantiene también las características útiles del modelo.

El modelo de red neuronal supone que las neuronas de una red neuronal forman una red compleja con otras neuronas, formando una red altamente interconectada; cada neurona se caracteriza por el valor de activación, y la conexión entre dos neuronas se caracteriza por el valor de peso. La interacción entre cada neurona se caracteriza por la regla dinámica de McCulloch-Pitts, y el cambio de peso y de conexiones entre neuronas resultante del aprendizaje se representa por la regla de aprendizaje Hebbiano.

Anderson muestra que la combinación de la regla de aprendizaje Hebbiano y la regla dinámica de McCulloch-Pitts permiten a la red generar una matriz de pesos que puede almacenar asociaciones entre diferentes patrones de memoria – dicha matriz es la forma de almacenamiento de memoria para el modelo de red neuronal. Las principales diferencias entre la matriz de la hipótesis de huellas múltiples y el modelo de red neuronal es que mientras que la nueva memoria indica la extensión de la matriz existente para la hipótesis de huellas múltiples, la matriz de pesos del modelo de red neuronal no se extiende; más bien, se dice que el peso se actualiza con la introducción de una nueva asociación entre neuronas.

Usando la matriz de pesos y la regla de aprendizaje/dinámica, las neuronas con un valor pueden recuperar el valor diferente que es idealmente una aproximación del vector de memoria objetivo deseado.

Como la matriz de pesos de Anderson entre las neuronas sólo recuperará la aproximación del elemento objetivo cuando se le indique, se buscó una versión modificada del modelo para poder recuperar la memoria objetivo exacta cuando se le indique. La red de Hopfield es actualmente el modelo de red neuronal de memoria asociativa más sencillo y popular; el modelo permite recuperar el vector objetivo claro cuando se le indica la parte o la versión «ruidosa» del vector.

La matriz de pesos de la red de Hopfield, que almacena la memoria, se parece mucho a la utilizada en la matriz de pesos propuesta por Anderson. Una vez más, cuando se introduce una nueva asociación, se dice que la matriz de pesos se ‘actualiza’ para dar cabida a la introducción de la nueva memoria; se almacena hasta que la matriz es señalada por un vector diferente.

Modelo de búsqueda de memoria de doble almacénEditar

Desarrollado por primera vez por Atkinson y Shiffrin (1968), y perfeccionado por otros, incluidos Raajimakers y Shiffrin, el modelo de búsqueda de memoria de doble almacén, ahora denominado SAM o modelo de búsqueda de memoria asociativa, sigue siendo uno de los modelos computacionales más influyentes de la memoria. El modelo utiliza en su mecanismo tanto la memoria a corto plazo, denominada almacén a corto plazo (STS), como la memoria a largo plazo, denominada almacén a largo plazo (LTS) o matriz episódica.

Cuando un elemento se codifica por primera vez, se introduce en el almacén a corto plazo. Mientras el elemento permanece en el almacén a corto plazo, las representaciones vectoriales en el almacén a largo plazo pasan por una serie de asociaciones. Los elementos introducidos en el almacén a corto plazo pasan por tres tipos diferentes de asociación: (autoasociación) la autoasociación en el almacén a largo plazo, (heteroasociación) la asociación entre elementos en el almacén a largo plazo, y la (asociación de contexto) que se refiere a la asociación entre el elemento y su contexto codificado. Para cada ítem en el almacén a corto plazo, cuanto mayor sea la duración de un ítem dentro del almacén a corto plazo, mayor será su asociación con otros ítems que co-residen dentro del almacén a corto plazo, y con su contexto codificado.

El tamaño del almacén a corto plazo está definido por un parámetro, r. Cuando se introduce un elemento en el almacén a corto plazo, y si el almacén a corto plazo ya ha sido ocupado por un número máximo de elementos, el elemento probablemente saldrá del almacén a corto plazo.

Como los elementos co-residen en el almacén a corto plazo, sus asociaciones se actualizan constantemente en la matriz del almacén a largo plazo. La fuerza de la asociación entre dos ítems depende de la cantidad de tiempo que los dos ítems de la memoria pasan juntos dentro del almacén a corto plazo, lo que se conoce como efecto de contigüidad. Dos ítems que son contiguos tienen una mayor fuerza asociativa y a menudo se recuerdan juntos desde el almacenamiento a largo plazo.

Además, el efecto de primacía, un efecto observado en el paradigma de recuerdo, revela que los primeros ítems de una lista tienen una mayor probabilidad de ser recordados por encima de otros en el STS, mientras que los ítems más antiguos tienen una mayor probabilidad de salir del STS. El ítem que logró permanecer en el STS durante un tiempo prolongado habría formado una autoasociación, heteroasociación y asociación de contexto más fuerte que otros, lo que en última instancia conduce a una mayor fuerza asociativa y a una mayor probabilidad de ser recordado.

El efecto de recencia de los experimentos de recuerdo se produce cuando los últimos ítems de una lista se recuerdan excepcionalmente bien sobre otros ítems, y puede explicarse por el almacén a corto plazo. Cuando el estudio de una determinada lista de memoria ha terminado, lo que reside en el almacén a corto plazo al final es probable que sean los últimos elementos que se introdujeron en último lugar. Dado que el almacén a corto plazo es fácilmente accesible, dichos elementos se recordarán antes que cualquier elemento almacenado en el almacén a largo plazo. Esta accesibilidad al recuerdo también explica la fragilidad del efecto de recencia, que consiste en que los distractores más simples pueden hacer que una persona olvide los últimos elementos de la lista, ya que los últimos elementos no habrían tenido tiempo suficiente para formar ninguna asociación significativa dentro del almacén a largo plazo. Si la información es eliminada del almacén a corto plazo por los distractores, se esperaría que la probabilidad de que se recuerden los últimos ítems sea menor que incluso los ítems de pre-recuerdo en la mitad de la lista.

El modelo SAM de doble almacén también utiliza el almacenamiento de memoria, que en sí mismo puede ser clasificado como un tipo de almacenamiento a largo plazo: la matriz semántica. El almacén a largo plazo en SAM representa la memoria episódica, que sólo se ocupa de las nuevas asociaciones que se formaron durante el estudio de una lista experimental; las asociaciones preexistentes entre los elementos de la lista, entonces, necesitan ser representadas en una matriz diferente, la matriz semántica. La matriz semántica permanece como otra fuente de información que no es modificada por las asociaciones episódicas que se forman durante el examen.

Así, los dos tipos de almacenamiento de la memoria, los almacenes de corto y largo plazo, son utilizados en el modelo SAM. En el proceso de recuerdo, los ítems que residen en el almacén de memoria a corto plazo se recordarán primero, seguidos por los ítems que residen en el almacén a largo plazo, donde la probabilidad de ser recordado es proporcional a la fuerza de la asociación presente dentro del almacén a largo plazo. Otro almacén de memoria, la matriz semántica, se utiliza para explicar el efecto semántico asociado al recuerdo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.