論理的に透過的なニューラルネットワークとデータからの明示的な知識の生成

ニューラルネットワーク進化のテーマを続ける。

画像

蓄積されたデータから明示的な知識を生成することは、コンピューターよりもはるかに古い問題です。 訓練されたニューラルネットワークは、データから隠された知識を生成できます。予測、分類、パターン認識などのスキルが作成されますが、通常、その論理構造はユーザーから隠されたままです。 この隠された論理構造の顕在化(対比)の問題は、ニューラルネットワークを特別な「論理的に透明な」まばらな形にすることで解決されます。

ニューラルネットワークを使用することを決定した各研究者は、「問題を解決するために必要なニューロンの数」と「ニューラルネットワークの構造はどうすればよいですか」という2つの質問に直面します。これら2つの質問を組み合わせて、3つ目は「ニューラルネットワークをユーザーが理解できるようにする方法」です。 (論理的に透明)そして、この理解がもたらすメリットは何ですか?」



使用するニューロンの数は?


この質問に答えるには、2つの相反する視点があります。 そのうちの1人は、使用するニューロンが多いほど、ネットワークの信頼性が高まると主張しています。 この立場の支持者は、人間の脳の例を引用しています。 実際、ニューロンが多いほど、ニューロン間の接続数が多くなり、ニューラルネットワークで解決できるタスクは複雑になります。 さらに、問題の解決に必要な数よりも多くの既知のニューロンを使用すると、ニューラルネットワークは確実に学習します。 少数のニューロンで開始すると、ネットワークは問題の解決方法を学習できない場合があり、最初に多数のニューロンでプロセス全体を繰り返す必要があります。 この観点(より良い)は、ニューラルネットワークソフトウェア開発者の間で人気があります。 そのため、それらの多くは、プログラムの主な利点の1つとして、任意の数のニューロンを使用する可能性を呼び出しています。

2番目の観点は、このような「経験的」ルールに基づいています。パラメータのフィッティングが多いほど、その値が事前に不明であった領域の関数の近似が悪化します。 数学的な観点から、ニューラルネットワークのトレーニングのタスクは、定義のドメイン全体にわたって有限数のポイントで指定された関数の継続に削減されます。 このアプローチでは、ネットワーク入力は関数の引数と見なされ、ネットワーク応答は関数の値と見なされます。 明らかに、次数3の多項式を使用して得られた近似は、「正しい」近似の内部概念とより一貫しています。 その単純さにもかかわらず、この例はその本質を明確に示しています。

2番目のアプローチでは、必要最小限のニューロン数を定義します。 主な欠点は、この最小数が事前にわからないことであり、ニューロンの数を徐々に増やして決定する手順は非常に面倒です。 医療診断、宇宙航行、および心理学の分野のさまざまなグループの経験に基づいて、これらすべてのタスクで、数十個以上のニューロンが必要になることは決してなかったことがわかります。 2つの極端な位置の分析をまとめると、次のように言えます:最小数のニューロンを持つネットワークは、関数をより適切に(「より正確に」、よりスムーズに)近似する必要がありますが、この最小数のニューロンを見つけるには、トレーニングネットワークで多くの知的努力と実験が必要です。 ニューロンの数が多すぎる場合、最初の試行で結果を得ることができますが、「悪い」近似を構築するリスクがあります。 真実は、そのような場合に常に起こるように、真ん中にあります。必要以上にニューロンの数を選択する必要がありますが、それほど多くは必要ありません。 これは、学習試行が失敗するたびにネットワーク内のニューロンの数を2倍にすることで実行できます。 ただし、対照的な手順を使用して、ニューロンの最小数を推定するより信頼性の高い方法があります。 さらに、対照的な手順により、2番目の質問に答えることができます:ネットワークの構造はどうあるべきか。

対照的な手順は、ネットワークがタスクをゼロから学習する能力を失うまで結果への影響を最小限に抑えながら関係を排除するという原則に基づいています。



論理的に透過的なニューラルネットワーク


多くのユーザーの観点から見ると、ニューラルネットワークの主な欠点の1つは、ニューラルネットワークが問題を解決するが、その方法がわからないことです。 つまり、問題を解決するためのアルゴリズムは、訓練されたニューラルネットワークから抽出することはできません。 ただし、特別に構築された対照的な手順により、この問題を解決できます。

たとえば、すべてのニューロンに3つ以下の入力信号が必要です。 すべての入力信号が入力層のすべてのニューロンに供給され、各次の層のすべてのニューロンが前の層のすべてのニューロンの出力信号を受け取るニューラルネットワークを定義しましょう。 ネットワークにエラーのない問題の解決策を教えます。

その後、いくつかの段階で対比を行います。 最初の段階では、入力層のニューロンの重みのみを対比します。 対照的に、一部のニューロンに3つ以上の入力信号がある場合、入力ニューロンの数を増やします。 次に、他のすべてのレイヤーに対して同様の手順を交互に実行します。 説明されている手順が完了すると、論理的に透過的なネットワークが取得されます。 追加のネットワークコントラストを作成して、最小限のネットワークを取得できます。 論理的に透過的なネットワークが、各ニューロンが3つ以下の入力を持つネットワークとして理解される場合、ネットワークの最小性が論理的な透過性を必要としないことは明らかです。



おわりに


訓練されたニューラルネットワークを使用してデータから明示的な知識を取得するための技術は非常に単純に見え、問題を引き起こすことはないようです-実装して使用するだけです。

最初の段階:基本的な問題を解決するためにニューラルネットワークをトレーニングします。 通常、基本的なタスクは認識、予測(前のセクションと同様)などです。 ほとんどの場合、データのギャップを埋めるタスクとして解釈できます。 このようなスペースは、認識中の画像の名前、クラス番号、予測の結果などです。

2番目の段階:有意性、対比、学習の指標を分析することにより(これはすべて最も頻繁に繰り返し使用されます)、ニューラルネットワークを論理的に透明な形にします。

結果はあいまいです-別の初期マップから開始すると、別の論理的に透過的な構造を取得できます。 各データベースには、明示的な知識のためのいくつかのオプションがあります。 これは技術的な欠陥とみなすことができますが、科学者は、反対に、明示的な知識の唯一のオプションを提供する技術は信頼性が低く、結果の不均一性はデータからの明示的な知識の生産の基本的な特性であると考えています。

おやつとして、Xiao Xiao Liは、ベイジアンのスパム対策フィルターを開発するMicrosoft Researchの魅力的な従業員です。

画像



参照資料


ニューロインフォマティクス/ A.N.ゴルバン、V.L。ダニン-バルコフスキー、A.N。キルディン他-ノボシビルスク:Science。 1998年、ロシア科学アカデミーのシベリア企業。



All Articles