効果を忘れない意識またはANNの発現のモデル

この記事は、 意識と無意識の機能的分離のモデルの続きです はじめに その中で、Rosenblattパーセプトロンの原理を叙情的に説明しました。 そして、彼らは2人以上の教師から教える問題を提起しました。 この記事では、「2人以上の教師」の問題は考慮されていませんが、単純な例(複雑な例)で技術的に定式化することは非常に困難です。 したがって、おそらく次の記事でこれに対処します-興味がある場合。



この記事では意識について説明しますが、歌詞をスキップしたい場合(そして専門家だけが理解したいだけでなく、専門家を少し困らせます)、セクション「Intellectronicsのゼロ意識モデル」から読み始めます。 しかしそれでも、歌詞は意識のような架空の概念との関係についていくつかのアイデアを与えます。







まず、無意識が何であるかを決めましょう。 これは、実際に最初に表示されるよりも簡単です。 無意識は、記憶のメカニズム全体とそこに生じる影響です。 特に、前の記事はこれに専念しました。 その分布、結合性、2レベルはすべて意識的ではなく、これらの効果はすべて内部的なものです。 そして、 意識的な複合体の影響下での最終結果(反応要素)のみが表面上で許可されます。



2番目の、かなり重要なポイントは、 意識的な複合体の説明です。 それはすべての無意識の、他の記憶の仕事とどのように違いますか?



ユングによると、この複合体は、精神の無意識の領域が動き始めたときに形成されます。 無意識の中で発生するプロセスは、いくつかの点で互いに矛盾する場合があります。 その後、これらのプロセスは意識のレベルに運ばれます。 意識は、この複合体の解決に向けられるべきエネルギーを奪います。 これが発生した場合、いわゆる 「精神レベルを下げる。」 意識的な興味と活動の強度は徐々に低下し、無関心な慣性または意識機能の退行的な発達のいずれかをもたらします。つまり、意識機能の幼児期および古来の先駆者への低下を​​意味します。 変性のようなもの。 しかし、意識はこの複合体と同一視できます。 そして、そのような複合体の存在は、精神の通常の特性の1つになります。 これらの意識的な複合体は、あらゆる種類の差別化された標準設定またはニーズに現れます。



学習過程で生じるのはそのような意識的な複合体です 。 トレーニングは、無意識のための矛盾したことの宣言です。 この複合体は、特定のタイプの現象への外部刺激の帰属に関与する特定の活動を確立します。 この活動自体は、それ自体、内部から、無意識の矛盾した性質との意識の闘争として生じます。 これにおいて、それは外部環境の刺激に反応して無意識で起こる他の活動とは異なります。



そのような意識的な複合体の仕事は、学習プロセスを真剣に加速します。 これは、複合体自体がさまざまなタイプの現象を区別するという事実に由来し、トレーニング中に、これを無意識の他の新しい活動と調整するために残ります。 これは無意識のかなり矛盾した活動を完全に調和させるよりもはるかに簡単です。



さらに、質問全体は、学習が意識によって捕捉される程度にあります。 トレーニングが迅速に行われた場合、それは高い意識を示しています。 トレーニングが行われた能力のテストがある場合、受けたトレーニングの量が重要になります。 それが非常に小さい場合(知識分野の総量と比較して)、無意識はとにかくオンになり、何らかの方法で仕事を意識に置き換えようとし、現実を予測するために知識を得る方法を一般化します。 残念ながら、この場合、無意識には一般化することはほとんどなく、ある種の不条理だけが判明します。



獲得した知識の量が多い場合、無意識のプロセスを置き換えます。 そして、意識は以前に獲得した知識を回復し、無意識は知識の小さな最小限の一般化のみを可能にします。 しかし、その結果、直接記憶されなかったすべての領域について、結果を推測することはまったく不可能であり、その意味をはるかに予期していません。



直観は、学習プロセスが意識によって完全に捕捉されていない場合にのみ十分に機能しますが、何らかの抽象化が行われました。 この抽象化またはその後の忘却は大きすぎてはならず、注意の約80%が残っている必要があります。 同時に、学習プロセスが少し遅れます-これにより、無意識の学習に関与することができます。



後で能力のテストが行​​われると(十分な量の知識が得られたとき)、意識の仕事により、知識の明確な境界線と、トレーニングに注意が払われなかった場所のコンテンツを満たすための無意識の仕事の輪郭を描くことができます。 特定の一般化、先見性(予測)があります。



これとは別に、この場合の無意識の仕事は一種の「ぼやけた場所」を表しており、意識の仕事に重ねると、信頼できる知識が得られます。



しかし、学習プロセスは意識の存在を伴わない場合があります。 この場合、後で十分に満足のいく結果が得られますが、明確にすることは不可能です。 知識は常にぼやけています。



知能のゼロ意識モデル



複合体は、外部刺激が特定のタイプの現象に属することに関与する特定の活動を確立します。 この活動自体は、それ自体、内部から、無意識の矛盾した性質との意識の闘争として生じます。



このフレーズは実践者向けです-サイバネティックスは非常に曖昧であり、意識のモデルが持つべき特徴をあまり示していません。 ここでは、このアイデアをより具体的に説明しようとします。



このモデルは、メモリモデル(Rosenblattパーセプトロン)に基づいています。 パーセプトロンは物忘れの問題を知っています。 次のように現れます:トレーニング中に、後続の各刺激は記憶を上書きするか、むしろ、反応が前の刺激に基づいた重み係数を変更する可能性があります。 したがって、トレーニングセットからの刺激が1回表示される1回のパス(反復)では、特定の刺激に対して正しい応答が既に受信されている場合でも、後続のトレーニングは忘却につながる可能性があります。 したがって、トレーニングサンプル全体ですべての刺激と応答のペアが合意された場合にのみトレーニングが完了し、定期的に忘れられます。



これは理解できる、なぜなら これは、連立方程式で係数を見つけることに相当します。 システム内の方程式の総数Nからいくつかの方程式Kの解を満たす係数が見つかった場合、その後の係数の検索で、他のM個の方程式が一貫しているという事実にもかかわらず、Kの一部の条件は再び一致しません。 この問題が長時間のトレーニングの理由です。



簡素化、改善、およびそれによりより高速なトレーニングを行うには、以下で説明する手法を使用できます。 外部の結果によると、この手法は無意識の意識の現れに似ています。 しかし、自分より先に進まないでください。



パーセプトロンモデルをまったく使用できませんでしたが、単に入出力の対応関係を記憶するだけでした。 しかし、それにより、いくつかの一般化を行う機会を失い、最も重要なことには、非線形方程式系で表現された、関心のある主題領域の関係のモデルを持たなくなります。



同様の結果は、連想層の要素(A要素)のアクティベーション制御に直接干渉することで得られます。 それは何を与えますか?



これらの目的のために、R要素と同じ数のA要素を追加で割り当てます。 反応する要素のサイズによって、感覚要素に関連付けずにメモリのサイズを増やします。 そして、トレーニング中に、感覚要素に適切な刺激を適用するときに、これらの追加のA要素の活動を同時に確立します。 同時に、R要素の必要な状態に正確に対応するように、このアクティビティを確立します。 他のA要素のアクティビティの状態は擬似ランダムになり、より正確には、入力刺激に何らかの形で依存します。



この場合、トレーニングはほとんど瞬時に行われます。 メモリ(連想層)では、このようなパターンは、出力で必要なパターンとして人為的に形成されます。 これは、他の「通常の」A要素のランダムなアクティビティのみを中和するトレーニング手順を利用します。



ここで紹介する「加速学習」手法には重大な欠点があります。このようなモデルは、検査セットでの一般化とその後の予測の可能性を事実上排除します。 これは、この場合のパーセプトロンの使用に疑問を投げかけています。



しかし、これはもちろん退化した例です。 いくつかの詳細を変更するだけでよく、この「加速学習」の方法は、さまざまな方法であらゆるニューラルネットワークに比べて大きな利点があります。



詳細は次のとおりです。 上記の追加のA要素のアクティブ化に、ランダム性(突然変異)の要素を導入する必要があります。 たとえば、必要に応じて、ケースの80%で追加のAエレメントをアクティブにし(この数値を注意の要因、より正確には予測精度と呼びます)、実際にアクティブにします。 これにより、学習が少し遅くなります。 感覚活動は簡単に中和できません。 また、内部アクティビティでは、出力に必要な反応の100%の信頼性が失われるため、係数の設定(トレーニング)の手順では、感覚情報を考慮して内部情報と調整する必要があります。 このプロセスは、比fig的に、または単により狭い特定の顕在化でありえます-無意識からの意識の顕現と呼ばれます。



最も重要なことは、このモデルを「背後で」適用することは忘れることの問題であり、そのようなニューラルネットワークでは(他とは異なり)トレーニングよりも悪いと予測される状況はありません。 このようなネットワークを使用すると、一般化のレベルを(アテンションファクターを介して)調整できます。極端な場合、トレーニングサンプル全体のアカウントを取得しますが、予測能力は実質的にありません。 他の極端なケースでは、パーセプトロンの結果に似た結果が得られます。一般化が非常に大きく、画像が非常にぼやけてしまい、画像のどの特徴がもっともらしいかを理解することができなくなります(トレーニングに対応)。 注意係数を変更することにより、一般化のレベルをスムーズに調整し、画像の既知の特徴に加えて、最も可能性の高い一般化を受け取ることができます。 さらに、学習率は予測可能になり、注意因子に依存します。



著者の意見では、いくつかの有名なニューラルネットワークでは、ここで紹介した原則の一部が完全に意識的に使用されていなかったことに言及する価値があります。



たとえば、CC4メソッドS. Kakは、角度分類の概念を使用し、内側層のアクティビティの静的計算により学習を最大化しようとし、異なる刺激に対して1つのA要素のみを人為的に活性化します。 これは、A層のアクティビティに直接影響を与えるという事実に似ていますが、A層のアクティビティとR層の必要な結果との対応をより正確に置くという点で異なります。 また、角度分類(一般的な方法とは異なる方法で行われる)での一般化のスムーズさも、望まれています。



また、著者の意見でも、連想層のランダムな起動の問題に不当に多くの注意が払われているAmosovの確率的ネットワークは、我々のアプローチに類似しています。 これは、アテンションファクターの大きさに応じて追加のA要素をランダムにアクティブ化する原理を指しますが、Amosovのネットワークとは異なり、残りのA要素はアクティブ化時にこのようなランダム性の影響を受けません。



私たちのアプローチの完全性は、遠く離れているが、人が意識を現すときに生じる情報処理との類似性について話すことを可能にします。 最後に、私たちの意識モデルは、人工ニューロンから生物学的ニューロンへのモデルと人間の意識と同じ関係を持っています。



最後に、当然のことながら、このような「ゼロ意識」のモデルを改善する必要があるという事実に注意を払う価値があります。



そして、最初のものは、「空から」連想層の追加要素を直接調整するため、適用された技術の人工性の問題です。 フィードバックからの信号に依存し、発生する状態を予測する必要があります。 これは、ホーキンスネットワークが興味深い理由の1つである階層的一時記憶(NTM)です。



何よりもまず、「複数の教師からの指導」の問題のモデリングはここには含まれておらず、したがって、矛盾-意識的複合体はまだ生じていません。



All Articles