Several memory models have been proposed to account for different types of recall processes, including cued recall, free recall, and serial recall. Jednak, aby wyjaśnić proces przypominania, model pamięci musi określić, w jaki sposób zakodowana pamięć może pozostać w magazynie pamięci przez dłuższy czas, dopóki pamięć nie zostanie ponownie udostępniona podczas procesu przypominania; ale nie wszystkie modele używają terminologii pamięci krótkotrwałej i długotrwałej, aby wyjaśnić przechowywanie pamięci; teoria dual-store i zmodyfikowana wersja modelu pamięci Atkinsona-Shiffrina (Atkinson 1968) używa zarówno krótko- i długotrwałego przechowywania pamięci, ale inne nie.
Model pamięci rozproszonej wielośladowejEdit
Model pamięci rozproszonej wielośladowej sugeruje, że wspomnienia, które są kodowane, są przekształcane na wektory wartości, przy czym każda wielkość skalarna wektora reprezentuje inny atrybut elementu, który ma być zakodowany. Takie pojęcie zostało po raz pierwszy zasugerowane przez wczesne teorie Hooke’a (1969) i Semona (1923). Pojedyncza pamięć jest rozdzielana na wiele atrybutów lub cech, tak że każdy atrybut reprezentuje jeden aspekt kodowanej pamięci. Taki wektor wartości jest następnie dodawany do tablicy pamięci lub macierzy, składającej się z różnych śladów lub wektorów pamięci. Dlatego za każdym razem, gdy nowa pamięć jest kodowana, pamięć ta jest przekształcana na wektor lub ślad, złożony z wielkości skalarnych reprezentujących różnorodne atrybuty, który jest następnie dodawany do wcześniej istniejącej i stale rosnącej macierzy pamięci, złożonej z wielu śladów – stąd nazwa modelu.
Gdy ślady pamięciowe odpowiadające konkretnym wspomnieniom są przechowywane w macierzy, aby przywołać pamięć w procesie przypominania, należy wywołać macierz pamięciową za pomocą określonej sondy, która posłuży do obliczenia podobieństwa między wektorem testowym a wektorami przechowywanymi w macierzy pamięciowej. Ponieważ macierz pamięci stale rośnie wraz z dodawaniem do niej nowych śladów, trzeba by przeprowadzić równoległe przeszukiwanie wszystkich śladów obecnych w macierzy pamięci, aby obliczyć podobieństwo, którego wynik może być użyty do wykonania albo asocjacyjnego rozpoznawania, albo z probabilistyczną regułą wyboru, użytą do wykonania przywołania.
Choć twierdzono, że ludzka pamięć wydaje się być zdolna do przechowywania ogromnej ilości informacji, do tego stopnia, że niektórzy uważali, iż jest to ilość nieskończona, obecność takiej stale rosnącej macierzy w ludzkiej pamięci brzmi niewiarygodnie. Ponadto model sugeruje, że do przeprowadzenia procesu przypominania wymagane jest wyszukiwanie równoległe pomiędzy każdym pojedynczym śladem, który znajduje się w stale rosnącej macierzy, co również budzi wątpliwości, czy takie obliczenia mogą być wykonane w krótkim czasie. Takie wątpliwości zostały jednak podważone przez ustalenia Gallistela i Kinga, którzy przedstawiają dowody na ogromne zdolności obliczeniowe mózgu, które mogą być wsparciem dla takiego równoległego wsparcia.
Modele sieci neuronowychEdit
Model wielośladowy miał dwa kluczowe ograniczenia: po pierwsze, pojęcie obecności stale rosnącej macierzy w ludzkiej pamięci brzmi niewiarygodnie; a po drugie, obliczeniowe wyszukiwanie podobieństwa względem milionów śladów, które byłyby obecne w macierzy pamięci, aby obliczyć podobieństwo, brzmi daleko poza zakresem ludzkiego procesu przypominania. Model sieci neuronowej jest idealnym modelem w tym przypadku, ponieważ pokonuje ograniczenia stawiane przez model wielośladowy i zachowuje użyteczne cechy modelu, jak również.
Model sieci neuronowej zakłada, że neurony w sieci neuronowej tworzą złożoną sieć z innymi neuronami, tworząc wysoce połączoną sieć; każdy neuron jest charakteryzowany przez wartość aktywacji, a połączenie między dwoma neuronami jest charakteryzowane przez wartość wagi. Interakcje między każdym neuronem charakteryzuje reguła dynamiczna McCullocha-Pittsa, a zmiana wagi i połączeń między neuronami wynikająca z uczenia się jest reprezentowana przez regułę Hebbian learning rule.
Anderson pokazuje, że kombinacja reguły Hebbian learning rule i reguły dynamicznej McCullocha-Pittsa pozwala sieci generować macierz wag, która może przechowywać skojarzenia między różnymi wzorcami pamięci – taka macierz jest formą przechowywania pamięci dla modelu sieci neuronowej. Główne różnice pomiędzy macierzą hipotezy wielu śladów a modelem sieci neuronowej polegają na tym, że podczas gdy nowa pamięć wskazuje na rozszerzenie istniejącej macierzy dla hipotezy wielu śladów, macierz wag modelu sieci neuronowej nie rozszerza się; mówi się raczej, że waga jest aktualizowana wraz z wprowadzeniem nowej asocjacji pomiędzy neuronami.
Używając macierzy wag i reguły uczenia się/dynamicznej, neurony wywołane jedną wartością mogą przywołać inną wartość, która jest idealną aproksymacją pożądanego wektora pamięci docelowej.
Ponieważ macierz wag Andersona pomiędzy neuronami przywoła jedynie aproksymację pozycji docelowej, gdy zostanie wywołana, poszukiwano zmodyfikowanej wersji modelu, aby móc przywołać dokładną pamięć docelową, gdy zostanie wywołana. Sieć Hopfielda jest obecnie najprostszym i najbardziej popularnym modelem sieci neuronowej pamięci asocjacyjnej; model ten pozwala na przywołanie czystego wektora docelowego, gdy zostanie wywołany z częścią lub „zaszumioną” wersją wektora.
Macierz wagowa sieci Hopfielda, która przechowuje pamięć, ściśle przypomina macierz wagową zaproponowaną przez Andersona. Ponownie, gdy wprowadzane jest nowe skojarzenie, mówi się, że macierz wagowa jest „aktualizowana”, aby pomieścić wprowadzenie nowej pamięci; jest ona przechowywana do czasu, gdy macierz zostanie wywołana przez inny wektor.
Dual-store memory search modelEdit
Po raz pierwszy opracowany przez Atkinsona i Shiffrina (1968), i udoskonalony przez innych, w tym Raajimakers i Shiffrin, dual-store memory search model, obecnie określany jako SAM lub search of associative memory model, pozostaje jako jeden z najbardziej wpływowych modeli obliczeniowych pamięci. Model ten wykorzystuje w swoim mechanizmie zarówno pamięć krótkotrwałą, określaną jako short-term store (STS), jak i pamięć długotrwałą, określaną jako long-term store (LTS) lub episodic matrix.
Gdy element jest po raz pierwszy zakodowany, zostaje wprowadzony do short-term store. Podczas gdy przedmiot pozostaje w magazynie krótkoterminowym, reprezentacje wektorowe w magazynie długoterminowym przechodzą przez różne asocjacje. Elementy wprowadzone do short-term store przechodzą przez trzy różne typy asocjacji: (autoasocjacja) samoasocjacja w sklepie długoterminowym, (heteroasocjacja) asocjacja między elementami w sklepie długoterminowym oraz (asocjacja kontekstowa ), która odnosi się do asocjacji między elementem a jego zakodowanym kontekstem. Dla każdej pozycji w magazynie krótkoterminowym, im dłuższy czas przebywania pozycji w magazynie krótkoterminowym, tym większa będzie jej asocjacja z samą sobą z innymi pozycjami, które współmieszkają w magazynie krótkoterminowym, oraz z jej zakodowanym kontekstem.
Rozmiar magazynu krótkoterminowego jest określony przez parametr, r. Gdy element jest wprowadzany do magazynu krótkoterminowego, i gdy magazyn krótkoterminowy został już zajęty przez maksymalną liczbę elementów, element ten prawdopodobnie wypadnie z magazynu krótkoterminowego.
Jak elementy współrezydują w magazynie krótkoterminowym, ich asocjacje są stale aktualizowane w macierzy magazynu długoterminowego. Siła asocjacji między dwoma elementami zależy od ilości czasu, jaki te dwa elementy pamięci spędzają razem w pamięci krótkotrwałej, co znane jest jako efekt ciągłości. Dwa elementy, które są przylegające mają większą siłę asocjacji i często są przywoływane razem z pamięci długotrwałej.
Ponadto, efekt prymatu, efekt obserwowany w paradygmacie przywoływania pamięci, ujawnia, że kilka pierwszych pozycji na liście ma większą szansę na przywołanie niż inne w STS, podczas gdy starsze pozycje mają większą szansę na wypadnięcie z STS. Pozycja, która zdołała pozostać w STS przez dłuższy czas, utworzyła silniejszą autoasocjację, heteroasocjację i asocjację kontekstową niż inne, co ostatecznie prowadzi do większej siły asocjacji i większej szansy na przywołanie.
Efekt retencji w eksperymentach z przywoływaniem jest wtedy, gdy kilka ostatnich pozycji na liście jest przywoływanych wyjątkowo dobrze w porównaniu z innymi pozycjami, i może być wyjaśniony przez magazyn krótkoterminowy. Kiedy badanie danej listy pamięci został zakończony, co rezyduje w sklepie krótkoterminowym w końcu jest prawdopodobne, aby być kilka ostatnich pozycji, które zostały wprowadzone w ostatnim czasie. Ponieważ sklep krótkoterminowy jest łatwo dostępny, takie elementy będą przywoływane przed jakimkolwiek elementem przechowywanym w sklepie długoterminowym. Ta dostępność pamięci wyjaśnia również kruchą naturę efektu rekonwalescencji, który polega na tym, że najprostsze dystraktory mogą spowodować, że dana osoba zapomni kilka ostatnich pozycji na liście, ponieważ ostatnie pozycje nie miałyby wystarczająco dużo czasu, aby utworzyć jakiekolwiek znaczące skojarzenia w pamięci długotrwałej. Jeśli informacja zostanie usunięta z pamięci krótkoterminowej przez dystraktory, prawdopodobieństwo, że ostatnie pozycje zostaną przywołane będzie niższe niż nawet pozycje poprzedzające częstotliwość w środku listy.
Dwupiętrowy model SAM wykorzystuje również pamięć, która sama w sobie może być sklasyfikowana jako rodzaj pamięci długoterminowej: macierz semantyczna. Pamięć długoterminowa w SAM reprezentuje pamięć epizodyczną, która zajmuje się jedynie nowymi skojarzeniami, które powstały podczas badania listy eksperymentalnej; wcześniej istniejące skojarzenia pomiędzy elementami listy muszą być reprezentowane na innej matrycy, matrycy semantycznej. Macierz semantyczna pozostaje jako kolejne źródło informacji, które nie jest modyfikowane przez epizodyczne skojarzenia powstałe podczas egzaminu.
Tak więc w modelu SAM wykorzystywane są dwa rodzaje magazynów pamięci: krótko- i długoterminowy. W procesie przywoływania najpierw przywoływane są elementy znajdujące się w pamięci krótkotrwałej, a następnie elementy znajdujące się w pamięci długotrwałej, gdzie prawdopodobieństwo ich przywołania jest proporcjonalne do siły skojarzenia obecnego w pamięci długotrwałej. Inny magazyn pamięci, macierz semantyczna, jest wykorzystywany do wyjaśnienia efektu semantycznego związanego z przywoływaniem pamięci.