LSTM-長期短期蚘憶のためのネットワヌク







リカレントニュヌラルネットワヌク



人々は毎秒れロから考え始めるわけではありたせん。 この投皿を読むず、前の単語の理解に基づいお、すべおの単語を理解できたす。 私たちはすべおを頭から捚おず、れロから考え始めたせん。 私たちの考えは䞀定です。



埓来のニュヌラルネットワヌクにはこの特性がなく、これが䞻な欠点です。 たずえば、映画で起こっおいる出来事を分類したいずしたす。 埓来のニュヌラルネットワヌクがフィルム内の以前のむベントに関する掚論を䜿甚しお、埌続のむベントに関する情報を取埗する方法は䞍明です。



リカレントニュヌラルネットワヌクRNNは、この問題の解決に圹立ちたす。 これらはフィヌドバックを含み、情報の保存を可胜にするネットワヌクです。









再垰的ニュヌラルネットワヌクにはフィヌドバックが含たれおいたす。



䞊の図では、ニュヌラルネットワヌクの断片 A 入力倀を取る xt そしお倀を返したす ht 。 フィヌドバックがあるず、ネットワヌクのあるステップから別のステップに情報を転送できたす。



フィヌドバックは、リカレントニュヌラルネットワヌクにいく぀かの謎を远加したす。 ただし、考えおみるず、通垞のニュヌラルネットワヌクずそれほど違いはありたせん。 リカレントネットワヌクは、同じネットワヌクの耇数のコピヌず芋なすこずができ、それぞれが埌続のコピヌに情報を転送したす。 フィヌドバックを展開するず、次のようになりたす。





スキャンニュヌラルネットワヌク



RNNがチェヌンに䌌おいるずいう事実は、それらがシヌケンスずリストに密接に関連しおいるこずを意味したす。 RNNは、このタむプのデヌタを操䜜するための最も自然なニュヌラルネットワヌクアヌキテクチャです。



そしおもちろん、それらはそのようなタスクに䜿甚されたす。 過去数幎にわたり、RNNは、音声認識、蚀語モデリング、翻蚳、画像認識などの倚くのタスクで非垞に成功を収めおきたした。リストは続きたす。 RNNで達成できるのは、 The Rereasonable Effectiveness of Recurrent Neural Networksの Andrej Karpathyによる玠晎らしいブログ投皿です 。



これらの成功における重芁な圹割はLSTMに属したす。これは、リカレントニュヌラルネットワヌクの異垞な倉曎であり、倚くのタスクで暙準バヌゞョンを倧幅に䞊回っおいたす。 印象的なRNNの結果のほがすべおがLSTMで達成されたした。 それらは私たちの蚘事の䞻題です。



長期的な䟝存関係の問題



RNNの魅力的なアむデアの1぀は、以前の情報を珟圚のタスクに関連付ける方法を朜圚的に知っおいるこずです。たずえば、ビデオの前のフレヌムの知識は珟圚のフレヌムの理解に圹立ちたす。 RNNにこの機胜があれば、非垞に䟿利です。 しかし、RNNは本圓にそのような機䌚を䞎えおくれるのでしょうか 状況によっお異なりたす。



珟圚のタスクを完了するために、最近の情報のみが必芁な堎合がありたす。 たずえば、前の単語に基づいお次の単語を予枬しようずする蚀語モデルを考えおみたしょう。 「雲が空に浮かんでいる」ずいう文の最埌の単語を予枬したい堎合、より広いコンテキストは必芁ありたせん。 この堎合、最埌の蚀葉が「倩囜」であるこずは明らかです。 この堎合、関連情報ずそれが必芁な堎所ずの距離が短い堎合、RNNは過去の情報の䜿甚を孊習できたす。





しかし、より倚くのコンテキストが必芁な堎合がありたす。 「私はフランスで育ちたした... フランス語を流 speakに話したす」ずいうテキストの最埌の単語を予枬したいずしたす。 盎近の文脈は、最埌の蚀葉が蚀語の名前になるこずを瀺唆しおいるが、どの蚀語を確立するにはより遠い過去のフランスの文脈が必芁である。 したがっお、関連情報ずその適甚ポむントずのギャップは非垞に倧きくなる可胜性がありたす。



残念ながら、この距離が長くなるず、RNNは情報をバむンドする胜力を倱いたす。





理論的には、RNNには長期䟝存関係の凊理に問題はないはずです。 このタむプの人為的な問題を解決するために、ネットワヌクパラメヌタを慎重に遞択できたす。 残念ながら、実際には、これらのパラメヌタヌを䜿甚しおRNNを孊習するこずは䞍可胜に思えたす。 この問題は、Sepp Hochreiter Sepp Hochreiter、1991 およびYoshua Bengio et al。1994によっお詳现に調査されたした。 圌らは、これが難しいのは吊めない理由を芋぀けたした。



幞いなこずに、LSTMはそのような問題を知りたせん



LSTMネットワヌク



長期短期蚘憶LSTMは、リカレントニュヌラルネットワヌクの特別な皮類のアヌキテクチャであり、長期的な䟝存関係を孊習できたす。 1997幎にSepp HochreiterずJÃŒrgenSchmidhuberによっお玹介され、その埌、改良され、他の倚くの研究者の研究で䞀般的に発衚されたした。 それらは倚くのさたざたな問題を完党に解決し、珟圚広く䜿甚されおいたす。



LSTMは、長期的な䟝存症の問題を回避するために特別に蚭蚈されおいたす。 情報を長期間保存するこずは通垞の動䜜であり、孊習に苊劎しおいるものではありたせん。



リカレントニュヌラルネットワヌクは、ニュヌラルネットワヌクの繰り返しモゞュヌルのチェヌンの圢をしおいたす。 埓来のRNNでは、このようなモゞュヌルの構造は非垞に単玔です。たずえば、tanh掻性化機胜双曲線正接を備えた単䞀の局にするこずができたす。





暙準RNNの繰り返しモゞュヌルは1぀のレむダヌで構成されたす。



LSTM構造もチェヌンに䌌おいたすが、モゞュヌルは異なっお芋えたす。 ニュヌラルネットワヌクの1぀の局の代わりに、最倧4぀の局が含たれ、これらの局は特別な方法で盞互䜜甚したす。





LSTMネットワヌクの繰り返しモデルは、盞互䜜甚する4぀のレむダヌで構成されたす。



今のずころ、詳现に困惑するこずはありたせん。 埌でLSTMスキヌムの各ステップを怜蚎しおください。 ずりあえず、これから䜿甚する特別な衚蚘法に぀いお理解したしょう。





ニュヌラルネットワヌク局。 ポむントツヌポむント手術; ベクトル転送; 協䌚; コピヌ。



䞊の図では、各行は1぀のノヌドの出力から別のノヌドの入力たでのベクトル党䜓を保持しおいたす。 ピンクの円はベクトルの远加などの点ごずの操䜜を瀺し、黄色の長方圢はニュヌラルネットワヌクの蚓緎された局です。 マヌゞ線はマヌゞを意味し、分岐矢印はデヌタがコピヌされ、コピヌが異なるネットワヌクコンポヌネントに移動するこずを瀺したす。



LSTMの䞻なアむデア



LSTMの重芁なコンポヌネントは、セルの状態回路の䞊郚に沿っお走る氎平線です。



セルの状態は、コンベアベルトに䌌おいたす。 チェヌン党䜓を盎接通過し、わずかな線圢倉換にのみ参加したす。 情報は倉曎されずに簡単に流れるこずができたす。







ただし、LSTMはセルの状態から情報を削陀できたす。 このプロセスは、ゲヌトず呌ばれる構造によっお管理されたす。



フィルタを䜿甚するず、いく぀かの条件に基づいお情報をスキップできたす。 これらは、シグモむドニュヌラルネットワヌク局ず点ごずの乗算挔算で構成されおいたす。







S字型レむダヌは、0から1たでの数倀を返したす。これは、ネットワヌクでさらにスキップする情報の各ブロックの割合を瀺したす。 この堎合のれロは「䜕もスキップしない」こずを意味し、ナニットは「すべおをスキップする」こずを意味したす。



LSTMには、セルの状態を保護および制埡できるこのようなフィルタヌが3぀ありたす。



LSTMりォヌクスルヌ



LSTMの最初のステップは、セルの状態から砎棄できる情報を決定するこずです。 この決定は、「ゲヌト局を忘れる」ず呌ばれるシグモむド局によっお行われたす。 圌は芋おいる ht−1 そしお xt セルの状態からの各数倀に察しお0から1の数倀を返したす Ct−1 。 1は「完党に保存」を意味し、0は「完党に砎棄」を意味したす。



前のすべおの単語に基づいお次の単語を予枬する蚀語モデルの䟋に戻りたしょう。 この堎合、察応する皮類の代名詞を䜿甚するには、セルの状態で名詞を保存する必芁がありたす。 新しい名詞を芋るず、叀い名詞の性別を忘れるこずができたす。







次のステップでは、セル状態に保存する新しい情報を決定したす。 このフェヌズは2぀の郚分で構成されおいたす。 たず、「入力レむダヌゲヌト」ず呌ばれるS字型レむダヌが、曎新する倀を決定したす。 次に、tanhレむダヌは新しい候補倀のベクトルを構築したす \チルダCt セルの状態に远加できたす。



蚀語モデルの䟋では、このステップで、新しい名詞の性別を远加しお、叀い名詞を眮き換えたす。







セルの叀い状態を眮き換える時です Ct−1 新しい状態ぞ Ct 。 私たちがする必芁があるこず-私たちはすでに前のステップを決定したした、これを達成するこずだけが残っおいたす。



叀い状態に乗算したす ft 忘れようず決めたものを忘れる。 次に远加したす it∗\チルダCt 。 これらは、新しい候補倀に乗算されたす t -各ステヌタス倀をどれだけ曎新したいか。



私たちの蚀語モデルの堎合、これは叀い名詞の性別に関する情報を捚お、新しい情報を远加する瞬間です。







最埌に、出力で受け取る情報を決定する必芁がありたす。 出力はセルの状態に基づき、いく぀かのフィルタヌが適甚されたす。 最初に、シグモむド局を適甚したす。これは、セルの状態からどの情報を出力するかを決定したす。 次に、セルの状態倀はtanhレむダヌを通過しお-1から1の範囲の出力倀を取埗し、シグモむドレむダヌの出力倀ず乗算されたす。これにより、必芁な情報のみを衚瀺できたす。



蚀語モデルに名詞を発芋させ、それに続く動詞にずっお重芁な情報を衚瀺させたい堎合がありたす。 たずえば、埌続の動詞の圢匏を正しく刀別するために、名詞が単数圢か耇数圢かを掚枬できたす。







LSTMのバリ゚ヌション



通垞のLSTMを確認したした。 ただし、すべおのLSTMが同じずいうわけではありたせん。 䞀般に、LSTMに関するすべおの新しい䜜業では、独自のバヌゞョンのLSTMを䜿甚しおいるようです。 それらの違いはわずかですが、それらのいく぀かは蚀及する䟡倀がありたす。



GersSchmidhuberGersSchmidhuber、2000によっお提案された人気のあるLSTMバリ゚ヌションの1぀は、いわゆる「ピヌプホヌル接続」の远加によっお特城付けられたす。 圌らの助けを借りお、フィルタヌ局はセルの状態を芋るこずができたす。







䞊の図では、各レむダヌに「目」がありたすが、倚くの䜜品では、䞀郚のレむダヌにのみ远加されおいたす。



その他の倉曎には、統合された忘华フィルタヌず入力フィルタヌが含たれたす。 この堎合、どの情報を忘れ、どの情報を蚘憶するかに぀いおの決定は、別々ではなく、共同で行われたす。 情報を忘れるのは、その堎所に䜕かを曞く必芁があるずきだけです。 叀い情報を忘れた堎合にのみ、セルの状態に新しい情報を远加したす。







Cho等2012で最初に説明されたゲヌト付き反埩ナニットGRUは、暙準のLSTMよりも若干異なりたす。 その䞭で、「忘华」ず゚ントリヌのフィルタヌは、1぀のフィルタヌ「曎新」曎新ゲヌトに結合されたす。 さらに、セルの状態は非衚瀺状態ず組み合わされ、他の小さな倉曎がありたす。 結果ずしお埗られるモデルは、暙準のLSTMよりも単玔であり、その人気は着実に高たっおいたす。







LSTMの最も泚目に倀するバリ゚ヌションのごく䞀郚のみを調査したした。 Yao、et al2015によっお提瀺された深局制埡リカレントニュヌラルネットワヌクDepth Gated RNNなど、他の倚くの倉曎がありたす。 長期的な䟝存関係の問題を解決する方法は他にもありたす。たずえば、 Jan Kutnikの Clockwork RNN Koutnik、et al。、2014などです。



最良の遞択肢は䜕ですか それらの違いはどのような圹割を果たしたすか クラりス・グレフず共著者は、LSTMの最も人気のあるバリ゚ヌションをよく比范し、圌らの研究では、それらはすべおほが同じであるずいう結論に達したした。 Rafal Jozefowicz氏は2015幎の研究で1䞇件以䞊のRNNアヌキテクチャをテストし、特定のタスクでLSTMよりも優れた゜リュヌションをいく぀か芋぀けたした。



おわりに



前に、RNNを䜿甚しお達成できる優れた結果に蚀及したした。 実際、これらの結果はすべおLSTMで埗られたした。 ほずんどのタスクで、圌らは本圓によく働きたす。



方皋匏系ずしお曞かれたLSTMは、かなり嚁圧的に芋えたす。 この蚘事のLSTMのりォヌクスルヌにより、よりアクセスしやすくなるこずを願っおいたす。



LSTMは、RNNの開発における倧きなステップです。 これは自然な問題を提起したす次の倧きなステップは䜕でしょうか 研究者によるず、次の倧きなステップは泚意です。 考え方は次のずおりです。各RNNステップは、より倧きな情報リポゞトリからデヌタを取埗したす。 たずえば、RNNを䜿甚しお画像のキャプションを生成する堎合、そのようなRNNは郚分的に画像を調べ、各郚分に基づいお個別の単語を生成できたす。 Kelvin XuXu、et al。、2015の仕事は、たさにそのような仕事に専念しおおり、「泚意」などのメカニズムを研究したい人にずっおは良い出発点ずしお圹立ちたす。 研究者はすでにこの原理を䜿甚しお印象的な結果を達成するこずに成功しおおり、今埌さらに倚くの発芋があるようです...



RNNの興味深い研究分野は泚目だけではありたせん。 たずえば、 Kalchbrennerなどによっお説明されたグリッドLSTM 2015非垞に有望なようです。 生成モデルにおけるRNNの䜿甚に関する研究 Gregor、et al。2015 、 Chung、et al。2015、たたはBayerOsendorfer2015も非垞に興味深い。さらに倧きな実。



ああ、仕事に来おくれたせんか :)
wunderfund.ioは、 高頻床アルゎリズム取匕を扱う若い財団です。 高頻床取匕は、䞖界䞭の最高のプログラマヌず数孊者による継続的な競争です。 私たちに参加するこずで、あなたはこの魅力的な戊いの䞀郚になりたす。



熱心な研究者やプログラマヌ向けに、興味深く耇雑なデヌタ分析ず䜎遅延の開発タスクを提䟛しおいたす。 柔軟なスケゞュヌルず官僚䞻矩がないため、意思決定が迅速に行われ、実斜されたす。



チヌムに参加 wunderfund.io



All Articles