Storage (memory)

cued recall、free recall、serial recallなど、さまざまなタイプの想起過程を説明するために、いくつかの記憶モデルが提案されている。 しかし、想起過程を説明するために、記憶モデルは、符号化された記憶が、想起過程で、再びアクセスされるまで、どのように長期間、記憶貯蔵に留まることができるかを明らかにしなければならない。しかし、すべてのモデルが、短期記憶と長期記憶の用語を使って、記憶貯蔵を説明しているわけではない。デュアルストア理論やアトキンソン-シフリン記憶の修正版(アトキンソン1968)は短期と長期記憶の両方の貯蔵を使っているが、他のモデルは、そうではない。

Multi-trace distributed memory modelEdit

multi-trace distributed memory modelは、符号化される記憶を値のベクトルに変換し、ベクトルの各スカラー量が符号化される項目の異なる属性を表すとするものである。 このような考え方は、Hooke (1969) やSemon (1923) の初期の理論で初めて提案されたものである。 一つの記憶が複数の属性(特徴)に分配され、それぞれの属性が符号化される記憶の一面を表すようになる。 このような値のベクトルは、記憶の異なる痕跡またはベクトルからなる記憶配列または行列に加えられる。 したがって、新しい記憶が符号化されるたびに、その記憶は、さまざまな属性を表すスカラー量からなるベクトルまたはトレースに変換され、複数のトレースからなる既存の増え続ける記憶行列に追加されます(これがモデルの名前の由来です)。

一旦、特定の記憶に対応する記憶痕跡が行列に格納されると、想起プロセスのために記憶を取り出すには、特定のプローブで記憶行列をキューイングする必要があり、これはテストベクトルと記憶行列に格納されたベクトルの間の類似度を計算するために使用される。 記憶行列は新しい痕跡が追加されて常に成長しているので、類似度を計算するために記憶行列内に存在するすべての痕跡を並列検索する必要があり、その結果は連想認識、または確率的選択規則を使用して、キューによる呼び出しを実行するために使用することができる。 また、このモデルでは、想起を行うためには、増え続けるマトリックスに存在する全てのトレース間の並列検索が必要であり、このような計算を短時間で行うことができるかどうかも疑問である。

ニューラルネットワークモデル編集

本文。 1 つは、人間の記憶の中に増え続ける行列が存在するという概念はありえないように聞こえること、2 つは、類似性を計算するために、記憶の行列に存在するであろう数百万の痕跡に対して類似性を計算的に検索することは、人間の想起プロセスの範囲をはるかに超えているように聞こえることです。 7542>

ニューラルネットワークモデルは、ニューラルネットワークのニューロンが他のニューロンと複雑なネットワークを形成し、高度に相互接続されたネットワークを形成すると仮定し、各ニューロンは活性化値によって、2つのニューロン間の接続は重み値によって特徴付けられる。 各ニューロン間の相互作用はMcCulloch-Pitts力学則で特徴付けられ、学習による重みとニューロン間の接続の変化はHebb学習則で表される。

Andersonは、Hebb学習則とMcCulloch-Pitts力学則を組み合わせて、異なる記憶パターン間の関連を保存できる重み行列を生成することを示し、この行列がニューラルネットワークモデルの記憶形式であることを示した。 多重トレース仮説の行列とニューラルネットワークモデルの大きな違いは、多重トレース仮説では新しい記憶が既存の行列の拡張を示すのに対し、ニューラルネットワークモデルの重み行列は拡張せず、むしろニューロン間の新しい関連の導入に伴って重みが更新されると言われていることである。

このウェイト行列と学習・動的ルールを用いると、ある値をキューにしたニューロンは、理想的には目的の記憶ベクトルの近似値である別の値を取り出すことができる。 ホップフィールド・ネットは、現在最も単純で最も一般的な連想記憶のニューラルネットワークモデルであり、このモデルは、ベクトルの一部または「ノイズ」バージョンでキューイングすると、明確な目標ベクトルを呼び出すことができるものである

記憶を格納するホップフィールドネットの重み行列は、アンダーソンが提案した重み行列に使われているものとよく似ている。 ここでも、新しい関連が導入されると、新しい記憶の導入に対応して重み行列が「更新」されると言われ、別のベクトルで行列がキューイングされるまで記憶される。

Dual-store memory search modelEdit

アトキンソンとシフリン(1968)によって最初に開発され、ラージメーカーとシフリンを含む他の者によって改良された2店舗記憶探索モデルは、現在SAMまたは連想記憶探索モデルとして呼ばれており、記憶に関する最も影響力のある計算機モデルの1つとして残されている。 このモデルは、短期記憶(STS)と長期記憶(LTS)またはエピソード行列と呼ばれる短期記憶の両方をメカニズムに用いている。 その項目が短期記憶にとどまっている間、長期記憶のベクトル表現はさまざまな関連付けを経ていく。 短期記憶に導入された項目は、3種類の関連付けを経ている。 (自動連想)長期ストアにおける自己連想、(異種連想)長期ストアにおける項目間連想、(文脈連想)項目とその符号化された文脈との間の連想である。 短期ストア内の各アイテムについて、アイテムが短期ストア内に存在する期間が長いほど、それ自身と短期ストア内に同居する他のアイテム、およびその符号化されたコンテキストとの関連性が高くなる。 アイテムが短期ストアに導入され、短期ストアがすでにアイテムの最大数によって占有されている場合、アイテムはおそらく短期ストアから脱落する。

アイテムが短期ストアで共存するとき、それらの関連は長期ストア行列で常に更新される。 2つの項目間の関連の強さは、2つの記憶項目が短期記憶内で一緒に過ごした時間の長さに依存し、これは連続性効果として知られている。 さらに、プライマシー効果という記憶想起のパラダイムで見られる効果では、リスト中の最初の数個の項目はSTS内で他の項目よりも想起される確率が高く、古い項目はSTSから脱落する確率が高いことが明らかにされている。 7542>

想起実験における再帰性効果とは、リスト中の最後の数個の項目が他の項目よりも例外的によく想起されることであり、短期記憶によって説明することができる。 ある記憶のリストの学習が終わったとき、最後に短期保存に存在するのは、最後に紹介された数個の項目である可能性が高いのである。 短期記憶には容易にアクセスできるため、そのような項目は長期記憶のどの項目よりも先に想起されることになる。 このような想起のしやすさは、再帰性効果のもろさを説明する。つまり、最も単純な混乱要因があれば、人はリストの最後の数項目を忘れることができるのであり、最後の項目は長期記憶の中で意味のある連合を形成するのに十分な時間がなかったことになる。 もし情報がディストラクターによって短期記憶から脱落していれば、最後の項目が想起される確率は、リストの真ん中にある再認識前の項目よりも低くなると予想される。

2店舗SAMモデルは、それ自体が長期記憶の一種として分類できるメモリストレージ、すなわち意味マトリックスも利用している。 SAMの長期記憶はエピソード記憶であり、実験リストの学習中に形成された新しい関連付けのみを扱う。リストの項目間の既存の関連付けは、次に別の行列、意味行列で表現される必要がある。 このように、SAMモデルでは、短期記憶と長期記憶の2つのタイプの記憶の保存を使用している。 想起過程では、まず短期記憶ストアに存在する項目が想起され、次に長期ストアに存在する項目が想起されるが、その確率は長期ストア内に存在する関連性の強さに比例する。 また、記憶の想起に関連する意味効果を説明するために、意味行列というもう一つの記憶貯蔵が用いられる

コメントを残す

メールアドレスが公開されることはありません。