Stockage (mémoire)

Plusieurs modèles de mémoire ont été proposés pour rendre compte de différents types de processus de rappel, notamment le rappel provoqué, le rappel libre et le rappel en série. Cependant, pour expliquer le processus de rappel, le modèle de mémoire doit identifier comment un souvenir encodé peut résider dans le stockage de la mémoire pendant une période prolongée jusqu’à ce que le souvenir soit accédé à nouveau, pendant le processus de rappel ; mais tous les modèles n’utilisent pas la terminologie de la mémoire à court et à long terme pour expliquer le stockage de la mémoire ; la théorie du double stockage et une version modifiée du modèle de mémoire d’Atkinson-Shiffrin (Atkinson 1968) utilise le stockage de la mémoire à court et à long terme, mais d’autres ne le font pas.

Modèle de mémoire distribuée multi-tracesEdit

Le modèle de mémoire distribuée multi-traces suggère que les souvenirs qui sont encodés sont convertis en vecteurs de valeurs, chaque quantité scalaire d’un vecteur représentant un attribut différent de l’élément à encoder. Cette notion a été suggérée pour la première fois par les premières théories de Hooke (1969) et Semon (1923). Un seul souvenir est réparti en plusieurs attributs, ou caractéristiques, de sorte que chaque attribut représente un aspect du souvenir à encoder. Un tel vecteur de valeurs est ensuite ajouté au tableau de la mémoire ou à une matrice, composée de différentes traces ou vecteurs de mémoire. Par conséquent, chaque fois qu’une nouvelle mémoire est encodée, cette mémoire est convertie en un vecteur ou une trace, composé de quantités scalaires représentant la variété des attributs, qui est ensuite ajouté à la matrice de mémoire préexistante et toujours croissante, composée de traces multiples – d’où le nom du modèle.

Une fois que les traces de mémoire correspondant à une mémoire spécifique sont stockées dans la matrice, pour récupérer la mémoire pour le processus de rappel, il faut repérer la matrice de mémoire avec une sonde spécifique, qui serait utilisée pour calculer la similarité entre le vecteur test et les vecteurs stockés dans la matrice de mémoire. Comme la matrice de mémoire croît constamment avec l’ajout de nouvelles traces, il faudrait effectuer une recherche parallèle à travers toutes les traces présentes dans la matrice de mémoire pour calculer la similarité, dont le résultat peut être utilisé pour effectuer soit une reconnaissance associative, soit avec la règle de choix probabiliste, utilisée pour effectuer un rappel gued.

Bien qu’il ait été affirmé que la mémoire humaine semble être capable de stocker une grande quantité d’informations, au point que certains avaient pensé à une quantité infinie, la présence d’une telle matrice en croissance constante dans la mémoire humaine semble peu plausible. En outre, le modèle suggère que pour effectuer le processus de rappel, une recherche parallèle entre chaque trace résidant dans la matrice croissante est nécessaire, ce qui soulève également des doutes quant à la possibilité d’effectuer de tels calculs en peu de temps. De tels doutes, cependant, ont été remis en question par les conclusions de Gallistel et King qui présentent des preuves sur les énormes capacités de calcul du cerveau qui peuvent être en faveur d’un tel support parallèle.

Modèles de réseaux neuronauxModifier

Article principal : Réseau Hopfield

Le modèle multi-traces avait deux limitations clés : un, la notion de la présence d’une matrice toujours plus grande dans la mémoire humaine semble peu plausible ; et deux, les recherches computationnelles de similarité contre des millions de traces qui seraient présentes dans la matrice de la mémoire pour calculer la similarité semble bien au-delà de la portée du processus de rappel humain. Le modèle de réseau neuronal est le modèle idéal dans ce cas, car il surmonte les limites posées par le modèle multi-traces et maintient également les caractéristiques utiles du modèle.

Le modèle de réseau neuronal suppose que les neurones d’un réseau neuronal forment un réseau complexe avec d’autres neurones, formant un réseau hautement interconnecté ; chaque neurone est caractérisé par la valeur d’activation, et la connexion entre deux neurones est caractérisée par la valeur de poids. L’interaction entre chaque neurone est caractérisée par la règle dynamique de McCulloch-Pitts, et le changement de poids et de connexions entre les neurones résultant de l’apprentissage est représenté par la règle d’apprentissage de Hebbian.

Anderson montre que la combinaison de la règle d’apprentissage de Hebbian et de la règle dynamique de McCulloch-Pitts permet au réseau de générer une matrice de poids qui peut stocker des associations entre différents modèles de mémoire – une telle matrice est la forme de stockage de mémoire pour le modèle de réseau neuronal. Les différences majeures entre la matrice de l’hypothèse de traces multiples et le modèle de réseau neuronal est que, tandis que la nouvelle mémoire indique l’extension de la matrice existante pour l’hypothèse de traces multiples, la matrice de poids du modèle de réseau neuronal ne s’étend pas ; plutôt, le poids est dit être mis à jour avec l’introduction d’une nouvelle association entre les neurones.

En utilisant la matrice de poids et la règle d’apprentissage/dynamique, les neurones cued avec une valeur peuvent récupérer la valeur différente qui est idéalement une approximation proche du vecteur de mémoire cible désiré.

Comme la matrice de poids d’Anderson entre les neurones ne récupère que l’approximation de l’élément cible lorsqu’elle est cued, une version modifiée du modèle a été recherchée afin de pouvoir rappeler la mémoire cible exacte lorsqu’elle est cued. Le réseau de Hopfield est actuellement le modèle de réseau neuronal le plus simple et le plus populaire de la mémoire associative ; le modèle permet le rappel du vecteur cible clair lorsqu’il est sollicité avec la partie ou la version « bruyante » du vecteur.

La matrice de poids du réseau de Hopfield, qui stocke la mémoire, ressemble beaucoup à celle utilisée dans la matrice de poids proposée par Anderson. Là encore, lorsqu’une nouvelle association est introduite, on dit que la matrice de poids est « mise à jour » pour tenir compte de l’introduction de la nouvelle mémoire ; elle est stockée jusqu’à ce que la matrice soit appelée par un vecteur différent.

Modèle de recherche de la mémoire à double magasinEdit

Développé pour la première fois par Atkinson et Shiffrin (1968), et affiné par d’autres, dont Raajimakers et Shiffrin, le modèle de recherche de la mémoire à double magasin, maintenant appelé SAM ou modèle de recherche de la mémoire associative, reste comme l’un des modèles computationnels de la mémoire les plus influents. Le modèle utilise à la fois la mémoire à court terme, appelée magasin à court terme (STS), et la mémoire à long terme, appelée magasin à long terme (LTS) ou matrice épisodique, dans son mécanisme.

Lorsqu’un élément est d’abord encodé, il est introduit dans le magasin à court terme. Pendant que l’élément reste dans le magasin à court terme, les représentations vectorielles dans le magasin à long terme passent par une variété d’associations. Les éléments introduits dans le magasin à court terme passent par trois types d’association différents : (auto-association) l’auto-association dans la mémoire à long terme, (hétéro-association) l’association inter-élément dans la mémoire à long terme, et (association de contexte) qui fait référence à l’association entre l’élément et son contexte codé. Pour chaque élément dans le magasin à court terme, plus la durée de résidence d’un élément dans le magasin à court terme est longue, plus son association avec lui-même sera grande avec les autres éléments qui co-résident dans le magasin à court terme, et avec son contexte codé.

La taille du magasin à court terme est définie par un paramètre, r. Au fur et à mesure qu’un élément est introduit dans le magasin à court terme, et si le magasin à court terme a déjà été occupé par un nombre maximum d’éléments, l’élément sera probablement abandonné du magasin à court terme.

Au fur et à mesure que les éléments co-résident dans le magasin à court terme, leurs associations sont constamment mises à jour dans la matrice du magasin à long terme. La force de l’association entre deux éléments dépend du temps que les deux éléments de mémoire passent ensemble dans le magasin à court terme, connu sous le nom d’effet de contiguïté. Deux éléments qui sont contigus ont une plus grande force associative et sont souvent rappelés ensemble à partir du stockage à long terme.

En outre, l’effet de primauté, un effet observé dans le paradigme de rappel de mémoire, révèle que les premiers éléments d’une liste ont plus de chances d’être rappelés par rapport aux autres dans le STS, tandis que les éléments plus anciens ont plus de chances d’abandonner le STS. L’élément qui a réussi à rester dans le STS pendant une période prolongée aurait formé une auto-association, une hétéro-association et une association contextuelle plus forte que les autres, ce qui conduit finalement à une plus grande force associative et à une plus grande chance d’être rappelé.

L’effet de récence des expériences de rappel se produit lorsque les quelques derniers éléments d’une liste sont rappelés exceptionnellement bien par rapport aux autres éléments, et peut être expliqué par le magasin à court terme. Lorsque l’étude d’une liste de mémoire donnée est terminée, ce qui réside dans le magasin à court terme à la fin est susceptible d’être les quelques derniers éléments qui ont été introduits en dernier. Comme la mémoire à court terme est facilement accessible, ces éléments seront rappelés avant tout autre élément stocké dans la mémoire à long terme. Cette accessibilité du rappel explique également la nature fragile de l’effet de récence, à savoir que les distracteurs les plus simples peuvent amener une personne à oublier les derniers éléments de la liste, car ces derniers n’auraient pas eu suffisamment de temps pour former une association significative dans la mémoire à long terme. Si l’information est éliminée du magasin à court terme par les distracteurs, on s’attendrait à ce que la probabilité que les derniers éléments soient rappelés soit plus faible que même les éléments de pré-récence au milieu de la liste.

Le modèle SAM à double magasin utilise également le stockage de la mémoire, qui peut lui-même être classé comme un type de stockage à long terme : la matrice sémantique. Le stockage à long terme dans SAM représente la mémoire épisodique, qui ne traite que les nouvelles associations qui ont été formées pendant l’étude d’une liste expérimentale ; les associations préexistantes entre les éléments de la liste doivent donc être représentées sur une matrice différente, la matrice sémantique. La matrice sémantique reste comme une autre source d’information qui n’est pas modifiée par les associations épisodiques qui sont formées pendant l’examen.

Ainsi, les deux types de stockage de la mémoire, les magasins à court et à long terme, sont utilisés dans le modèle SAM. Dans le processus de rappel, les éléments résidant dans la mémoire à court terme seront rappelés en premier, suivis des éléments résidant dans la mémoire à long terme, où la probabilité d’être rappelé est proportionnelle à la force de l’association présente dans la mémoire à long terme. Un autre stockage de mémoire, la matrice sémantique, est utilisé pour expliquer l’effet sémantique associé au rappel de mémoire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.