Es wurden verschiedene Gedächtnismodelle vorgeschlagen, um verschiedene Arten von Abrufprozessen zu erklären, darunter „cued recall“, „free recall“ und „serial recall“. Um den Abrufprozess zu erklären, muss das Gedächtnismodell jedoch aufzeigen, wie eine kodierte Erinnerung über einen längeren Zeitraum im Gedächtnisspeicher verbleiben kann, bis während des Abrufprozesses erneut auf die Erinnerung zugegriffen wird; jedoch verwenden nicht alle Modelle die Terminologie des Kurzzeit- und Langzeitgedächtnisses, um die Gedächtnisspeicherung zu erklären; die Dual-Store-Theorie und eine modifizierte Version des Atkinson-Shiffrin-Gedächtnismodells (Atkinson 1968) verwenden sowohl Kurz- als auch Langzeitgedächtnisspeicherung, andere Modelle hingegen nicht.
Modell des verteilten MehrspurgedächtnissesEdit
Das Modell des verteilten Mehrspurgedächtnisses geht davon aus, dass die zu kodierenden Erinnerungen in Wertevektoren umgewandelt werden, wobei jede skalare Größe eines Vektors ein anderes Attribut des zu kodierenden Elements darstellt. Dieses Konzept wurde erstmals von den frühen Theorien von Hooke (1969) und Semon (1923) vorgeschlagen. Eine einzelne Erinnerung wird auf mehrere Attribute oder Merkmale aufgeteilt, so dass jedes Attribut einen Aspekt der zu kodierenden Erinnerung darstellt. Ein solcher Vektor von Werten wird dann in das Speicherfeld oder eine Matrix eingefügt, die aus verschiedenen Gedächtnisspuren oder -vektoren besteht. Daher wird jedes Mal, wenn ein neuer Speicher kodiert wird, ein solcher Speicher in einen Vektor oder eine Spur umgewandelt, der/die aus skalaren Größen besteht, die eine Vielzahl von Attributen repräsentieren, die dann zu einer bereits bestehenden und ständig wachsenden Speichermatrix hinzugefügt werden, die aus mehreren Spuren besteht – daher der Name des Modells.
Sobald die Gedächtnisspuren, die einem bestimmten Gedächtnis entsprechen, in der Matrix gespeichert sind, muss man, um das Gedächtnis für den Abrufprozess abzurufen, die Gedächtnismatrix mit einer bestimmten Sonde ansprechen, die zur Berechnung der Ähnlichkeit zwischen dem Testvektor und den in der Gedächtnismatrix gespeicherten Vektoren verwendet wird. Da die Speichermatrix durch das Hinzufügen neuer Spuren ständig wächst, müsste man eine parallele Suche durch alle in der Speichermatrix vorhandenen Spuren durchführen, um die Ähnlichkeit zu berechnen, deren Ergebnis entweder zur Durchführung einer assoziativen Erkennung oder mit einer probabilistischen Auswahlregel zur Durchführung eines Cued Recalls verwendet werden kann.
Während behauptet wurde, dass das menschliche Gedächtnis in der Lage zu sein scheint, eine große Menge an Informationen zu speichern, und zwar in einem Ausmaß, dass einige von einer unendlichen Menge ausgingen, klingt das Vorhandensein einer solchen ständig wachsenden Matrix im menschlichen Gedächtnis unplausibel. Darüber hinaus legt das Modell nahe, dass zur Durchführung des Abrufs eine Parallelsuche zwischen jeder einzelnen Spur in der ständig wachsenden Matrix erforderlich ist, was ebenfalls Zweifel daran aufkommen lässt, ob solche Berechnungen in kurzer Zeit durchgeführt werden können. Solche Zweifel wurden jedoch durch die Ergebnisse von Gallistel und King widerlegt, die Beweise für die enormen Rechenfähigkeiten des Gehirns vorlegen, die eine solche parallele Unterstützung unterstützen können.
Neuronale NetzwerkmodelleBearbeiten
Das Modell mit mehreren Spuren hatte zwei wesentliche Einschränkungen: Erstens klingt die Vorstellung einer ständig wachsenden Matrix im menschlichen Gedächtnis unplausibel, und zweitens übersteigt die rechnerische Suche nach Ähnlichkeit anhand von Millionen von Spuren, die in der Gedächtnismatrix vorhanden wären, um die Ähnlichkeit zu berechnen, bei weitem den Rahmen des menschlichen Erinnerungsprozesses. Das Modell des neuronalen Netzes ist in diesem Fall das ideale Modell, da es die Beschränkungen des Modells mit mehreren Spuren überwindet und gleichzeitig die nützlichen Eigenschaften des Modells beibehält.
Das Modell des neuronalen Netzes geht davon aus, dass die Neuronen in einem neuronalen Netz ein komplexes Netz mit anderen Neuronen bilden, das stark miteinander verbunden ist; jedes Neuron wird durch den Aktivierungswert charakterisiert, und die Verbindung zwischen zwei Neuronen wird durch den Gewichtswert charakterisiert. Die Interaktion zwischen den einzelnen Neuronen wird durch die dynamische McCulloch-Pitts-Regel charakterisiert, und die Änderung des Gewichts und der Verbindungen zwischen den Neuronen, die sich aus dem Lernen ergibt, wird durch die Hebbsche Lernregel dargestellt.
Anderson zeigt, dass die Kombination der Hebbschen Lernregel und der dynamischen McCulloch-Pitts-Regel es dem Netzwerk ermöglicht, eine Gewichtsmatrix zu erzeugen, die Assoziationen zwischen verschiedenen Gedächtnismustern speichern kann – eine solche Matrix ist die Form der Gedächtnisspeicherung für das neuronale Netzwerkmodell. Der Hauptunterschied zwischen der Matrix der Mehrfachspuren-Hypothese und dem Modell des neuronalen Netzes besteht darin, dass bei der Mehrfachspuren-Hypothese ein neuer Speicher eine Erweiterung der bestehenden Matrix anzeigt, während sich die Gewichtsmatrix des Modells des neuronalen Netzes nicht erweitert; vielmehr wird das Gewicht bei Einführung einer neuen Assoziation zwischen Neuronen aktualisiert.
Mit Hilfe der Gewichtsmatrix und der lernenden/dynamischen Regel können Neuronen, die mit einem Wert aufgerufen werden, einen anderen Wert abrufen, der im Idealfall eine gute Annäherung an den gewünschten Zielspeichervektor darstellt.
Da die Anderson’sche Gewichtsmatrix zwischen Neuronen nur die Annäherung an das Zielobjekt abruft, wenn es aufgerufen wird, wurde eine modifizierte Version des Modells gesucht, um in der Lage zu sein, den exakten Zielspeicher abzurufen, wenn er aufgerufen wird. Das Hopfield-Netz ist derzeit das einfachste und populärste neuronale Netzmodell des assoziativen Gedächtnisses; das Modell ermöglicht den Abruf eines eindeutigen Zielvektors, wenn es mit einem Teil oder der „verrauschten“ Version des Vektors aufgerufen wird.
Die Gewichtsmatrix des Hopfield-Netzes, die das Gedächtnis speichert, ähnelt stark der von Anderson vorgeschlagenen Gewichtsmatrix. Auch hier gilt, dass die Gewichtsmatrix „aktualisiert“ wird, wenn eine neue Assoziation eingeführt wird, um die Einführung des neuen Speichers zu berücksichtigen; sie wird gespeichert, bis die Matrix durch einen anderen Vektor aufgerufen wird.
Dual-store memory search modelEdit
Das zuerst von Atkinson und Shiffrin (1968) entwickelte und von anderen, darunter Raajimakers und Shiffrin, verfeinerte Dual-store memory search model, das heute als SAM oder search of associative memory model bezeichnet wird, ist nach wie vor eines der einflussreichsten Rechenmodelle des Gedächtnisses. Das Modell verwendet in seinem Mechanismus sowohl das Kurzzeitgedächtnis, das als Kurzzeitspeicher (STS) bezeichnet wird, als auch das Langzeitgedächtnis, das als Langzeitspeicher (LTS) oder episodische Matrix bezeichnet wird.
Wenn ein Element zum ersten Mal kodiert wird, wird es in den Kurzzeitspeicher eingeführt. Während der Gegenstand im Kurzzeitspeicher verbleibt, durchlaufen die Vektordarstellungen im Langzeitspeicher eine Vielzahl von Assoziationen. Gegenstände, die in den Kurzzeitspeicher eingeführt werden, durchlaufen drei verschiedene Arten von Assoziationen: (Autoassoziation) die Selbstassoziation im Langzeitspeicher, (Heteroassoziation) die Assoziation zwischen Elementen im Langzeitspeicher und die (Kontextassoziation), die sich auf die Assoziation zwischen dem Element und seinem kodierten Kontext bezieht. Für jedes Element im Kurzzeitspeicher gilt: Je länger sich ein Element im Kurzzeitspeicher befindet, desto größer ist seine Assoziation mit sich selbst, mit anderen Elementen, die sich ebenfalls im Kurzzeitspeicher befinden, und mit seinem kodierten Kontext.
Die Größe des Kurzzeitspeichers wird durch einen Parameter, r, definiert. Wenn ein Element in den Kurzzeitspeicher eingeführt wird und der Kurzzeitspeicher bereits durch eine maximale Anzahl von Elementen belegt ist, fällt das Element wahrscheinlich aus dem Kurzzeitspeicher heraus.
Da Elemente im Kurzzeitspeicher gemeinsam vorkommen, werden ihre Assoziationen in der Matrix des Langzeitspeichers ständig aktualisiert. Die Stärke der Assoziation zwischen zwei Objekten hängt von der Zeit ab, die die beiden Gedächtnisobjekte zusammen im Kurzzeitspeicher verbringen, was als Kontiguitätseffekt bekannt ist. Zwei zusammenhängende Elemente haben eine größere Assoziationskraft und werden oft zusammen aus dem Langzeitspeicher abgerufen.
Der Primacy-Effekt, ein Effekt, der in Gedächtnisabrufparadigmen beobachtet wird, zeigt außerdem, dass die ersten paar Elemente einer Liste eine größere Chance haben, vor anderen im STS abgerufen zu werden, während ältere Elemente eine größere Chance haben, aus dem STS herauszufallen. Der Gegenstand, der es geschafft hat, für eine längere Zeit im STS zu verbleiben, hat eine stärkere Autoassoziation, Heteroassoziation und Kontextassoziation gebildet als andere, was letztlich zu einer größeren Assoziationsstärke und einer höheren Chance führt, abgerufen zu werden.
Der Recency-Effekt bei Recall-Experimenten tritt auf, wenn die letzten Gegenstände einer Liste außergewöhnlich gut abgerufen werden, und kann durch den Kurzzeitspeicher erklärt werden. Wenn die Untersuchung einer bestimmten Gedächtnisliste abgeschlossen ist, befinden sich im Kurzzeitspeicher am Ende wahrscheinlich die zuletzt eingeführten Elemente. Da der Kurzzeitspeicher leicht zugänglich ist, würden diese Elemente vor allen anderen im Langzeitspeicher gespeicherten Elementen abgerufen werden. Diese leichte Zugänglichkeit erklärt auch die Anfälligkeit des Recency-Effekts, der darin besteht, dass die einfachsten Ablenkungen dazu führen können, dass eine Person die letzten Punkte in der Liste vergisst, da die letzten Punkte nicht genug Zeit hatten, um im Langzeitspeicher eine sinnvolle Assoziation zu bilden. Wenn die Informationen durch Distraktoren aus dem Kurzzeitspeicher herausfallen, wäre die Wahrscheinlichkeit, dass die letzten Elemente abgerufen werden, voraussichtlich geringer als selbst bei den Elementen in der Mitte der Liste, die bereits vor dem Abruf liegen.
Das SAM-Modell mit zwei Speichern verwendet auch einen Gedächtnisspeicher, der selbst als eine Art von Langzeitspeicher klassifiziert werden kann: die semantische Matrix. Der Langzeitspeicher in SAM stellt das episodische Gedächtnis dar, das sich nur mit neuen Assoziationen befasst, die während des Studiums einer experimentellen Liste gebildet wurden; bereits bestehende Assoziationen zwischen Elementen der Liste müssen also auf einer anderen Matrix, der semantischen Matrix, dargestellt werden. Die semantische Matrix bleibt als weitere Informationsquelle bestehen, die nicht durch episodische Assoziationen, die während der Prüfung gebildet werden, verändert wird.
Im SAM-Modell werden also zwei Arten von Gedächtnisspeichern, nämlich Kurz- und Langzeitspeicher, verwendet. Im Erinnerungsprozess werden zuerst die Elemente aus dem Kurzzeitgedächtnis abgerufen, gefolgt von den Elementen aus dem Langzeitgedächtnis, wobei die Wahrscheinlichkeit des Abrufs proportional zur Stärke der Assoziation aus dem Langzeitgedächtnis ist. Ein weiterer Gedächtnisspeicher, die semantische Matrix, wird verwendet, um den semantischen Effekt zu erklären, der mit dem Gedächtnisabruf verbunden ist.