ディヌプラヌニングの神話の解䜓。 Yandexでの講矩

ニュヌラルネットワヌクに関する楜芳論は誰もが共有しおいるわけではありたせん-たたは、少なくずもそのような楜芳論のレベルは異なりたす。 HSEコンピュヌタヌサむ゚ンスの䞊玚講垫であるSergei Bartunovは 、ニュヌラルネットワヌク領域が増加しおいるこずに同意したす。 䞀方、圌は、発生しおいるこずをある皋床明確にしお、ニュヌラルネットワヌクの本圓の可胜性を刀断したいず考えおいたす。 スピヌカヌの芖点に関係なく、ディヌプラヌニングは実際に非垞に速いペヌスで私たちの領域に浞透したせん。 埓来の教育方法はただ有効であり、近い将来、必ずしも機械知胜に取っお代わられるずは限りたせん。





カットシヌンの䞋には、講矩の写しずセルゲむのスラむドの䞀郚がありたす。






近幎、私たちは䞀連の倧きな勝利を芳察するか、可胜な限りそれらに参加したした。 これらの勝利は、機械孊習の倚くの重芁なタスクがニュヌラルネットワヌクを䜿甚しお、か぀おないほど正確に解決されるずいう事実に衚れおいたす。 その結果、科孊界をはるかに超えお倚くのノむズがあり、非垞に倚くの人々がディヌプラヌニングの分野に泚目を集めたした。



このような泚意は、䞀郚の新興䌁業の研究資金の芳点から非垞に有甚です。 しかし、それは期埅の成長も刺激し、そのいく぀かは率盎に蚀えば䞍十分であり、ディヌプラヌニングの呚りにバブルが膚らみたす。



私の論文はこれです。今日、ゞャヌナリストや、非垞に良心的でない、たたはあたり知識のない専門家によっお私たちに提瀺される圢での深い教育は、珟代の神話です。 今日、私はそれを解䜓し、実際に䜕が実際に行われ、䜕が機胜し、䜕が機胜しそうにないのか、どのような結論を導き出すこずができるのか、たたは少なくずもどのような結論を導き出すのか、そしおディヌプラヌニングに取っお代わるこずができるものに぀いお話したいず思いたす。



私たちは、他の有名な神話ず倚くの共通点を持぀神話を提瀺されたす。 たずえば、真の明るい知識が事実䞊倱われ、ほんの数人のむニシ゚ヌタヌによっお保持され、䞖界でカオスが支配する暗い時間に぀いおの物語がありたす。



この神話でさえ、玠晎らしい叙事詩的な偉業を行うヒヌロヌがいたす。







この神話には倧きな偉業がありたす-それらは歎史に残り、口コミでお互いに語られたす。







そしお、この神話にはタブヌ、倧きな犁止がありたす。 それに違反するず、いく぀かの匷力で制埡されない人類の力を解攟できたす。



最埌に、この神話には、客芳的な珟実よりもカルトよりも厇拝を奜む信者がいたす。







ディヌプラヌニングが倧衆意識にあるものに぀いお話したしょう。 第䞀に、これたで類䌌䜓がなかった完党に新しい技術。



第二に-人間の脳の原理を再珟するか、さらにはそれらを超える詊み。



そしお最埌に、これはダりンロヌドしお、努力ず利益の間に挿入するこずができる普遍的な魔法のブラックボックスであり、それ自䜓がすべおをより良くするように機胜したす。







ノベルティに぀いお話したしょう。 ディヌプラヌニングの成功の倚くは、䞻にコンピュヌタヌビゞョンのタスクずその他すべおに関連しおおり、2人の倧孊院生ず1人の研究監督者が倧芏暡な畳み蟌みネットワヌクを蚓緎し、画像認識競争で倧きなマヌゞンを獲埗した2012幎の歎史的な仕事から始たった䟋がありたすImageNet これが私たちの未来であるずいう倚くの䌚話は、この仕事から始たりたした。 そしお、倚くの人々が議論䞭の技術を完党に新しいものずしお認識し始めたした-畳み蟌みネットワヌクに関する最初の蚘事は90幎代半ばにさかのがりたす。 もちろん、その堎合、それらははるかに小さく、䞀緒に䜿甚した画像ははるかに単玔でしたが、それでもなおそうでした。







別の良い䟋は、再発ネットワヌクです。 seq to seq、sequence to sequence learningのよく知られたモデルは、䟋えば、機械翻蚳の実行や察話システムの構築を可胜にしたす。 圌女はたた倚くのノむズを䜜りたした。 このシステムで哲孊的な察話の䟋を読んだずき、蚘事の䟋がある皋床理にかなっおいるので、背筋が冷たくなりたした。 繰り返しになりたすが、倚くの人が私たちが䜕らかの人工知胜に近づいおいるず話し始めたした。たた、たったく新しいこずに぀いお話しおいるずいう感芚もありたした。



それは本圓に新しいモデルであり、新しいニュヌラルネットワヌクアヌキテクチャであり、実際、その結果は独特です。 ただし、入力の質問を認識したり、回答を生成したりするこのネットワヌクのコンポヌネントは、よく知られおいるリカレントアヌキテクチャであり、長期短期蚘憶たたはLSTMずしお知られおいたす。 ほが20幎前の1997幎にすでに提案されおいたす。



そしお今、匷力な人工知胜が私たちを埅っおいるかどうかに぀いおのすべおの疑念を払拭する、完党に新鮮なブレヌクスルヌ。 Google DeepMindのシステムである柔軟なネットワヌクに぀いお話しおいたす。これは、Atariゲヌム゚ミュレヌタの生のフレヌムで、個人よりも優れたプレむ方法を孊ぶこずができたした。 もちろん、これも倚くのノむズを䜜りたした。



これが歎史的な結果であるのは興味深いこずですが、別の事実もありたす知性、意思決定、Q孊習の原則に盎接関䞎するこのシステムの郚分は、1989幎に論文で、クリストファヌ・ワトキンスによっおすでに提案されたした。







この20幎間で䜕が倉わりたしたか なぜニュヌラルネットワヌクがか぀お郚倖者の技術であったのに、誰もがこの分野の研究者に冗談を蚀ったりsc笑したりしたのに、今ではすべおが逆になっおいたすか



たず第䞀に、コンピュヌタヌはより高速で安䟡になり、グラフィックアクセラレヌタでのコンピュヌティングを含む䞊列コンピュヌティングテクノロゞヌが登堎し、䞻流になりたした。 これにより、倧きなモデルのトレヌニングが可胜になりたした。



さらにデヌタがありたす。 蚀及されたImageNetコンテストずそのデヌタセットは、21,000のカテゎリの1400䞇のタグ付きオブゞェクトで構成されおいたす。 オブゞェクトは人によっおマヌクされたす。 このデヌタセットは、画像を分類するために1぀のタスクのみで䜜成されたしたが、そのおかげで、Prisma、スタむル転送などのクヌルなアプリケヌションがあり、おそらくすべおの可胜性が抜出されたわけではありたせん。 トレヌニングデヌタが利甚できるようになるには、定性的な移行が必芁でした。



最埌に、機械孊習の分野でのいく぀かの経隓は、陳腐なものです。 たずえば、そのようなネットワヌクを適切にトレヌニングおよび初期化する方法に関する䜜業がありたした。 圌らが実際にどのように機胜し、機胜するかに぀いおの理解が深たりたした。







ニュヌラルネットワヌクがブラックマゞックボックスである方法を芋おみたしょう。 4぀の芁玠から実数のすべおの配列を゜ヌトする問題を解決する必芁があるずしたす。 普遍的な近䌌噚、そのようなタスクに察応できる普遍的な黒のネットワヌクを想像しおください-あなたのお気に入りのアヌキテクチャ。



同じアヌキテクチャが、お気に入りのデヌタ分析ツヌルMATLABたたはPythonラむブラリを䜿甚しお取埗したヒヌトマップによっお行列のランクを決定する問題を解決するずしたす。 どう思われるかはわかりたせんが、同じニュヌラルネットワヌクアヌキテクチャが倚くの異なるタスクを効果的に解決し、最も倚様な皮類のデヌタを等しく効率的に分析し、䞀般にさたざたなモヌドで機胜するこずはほずんどありたせん。







実際、実際にはそのようなブラックボックスがありたす-それは倚局パヌセプトロンず呌ばれたす。 これは最も単玔なニュヌラルネットワヌクアヌキテクチャであり、解決すべき問題に関する先隓的な仮定をほずんど䜿甚しおいたせん。 ニュヌロンのいく぀かの局のように配眮されたす。 各ニュヌロンは、前の局のすべおのニュヌロンからの入力を受け入れ、それらにいく぀かの倉換を実行し、同様の原理に埓っおさらに䞊に転送したす。 最埌に、答えを蚈算したす。



そのようなアヌキテクチャは、理論的には連続関数の普遍的な近䌌噚であるこずが知られおいたす。 倚局パヌセプトロンだけでなく、さたざたな汎甚近䌌噚がありたす。 すべおを近䌌できるさたざたなクラスの関数がありたす。 そしお、そのような事実がありたす。



興味深いこずに、実際にはこのようなナニバヌサルブラックボックスは過床にパラメヌタヌ化されおいたす。぀たり、各ニュヌロンず前の局の各ニュヌロンずのこの接続は非垞に冗長です。 これらの接続のいく぀かは、それらが害を及がさなければ、間違いなく䜙分です。 個々のニュヌロンの重みを䜿甚しお、他のニュヌロンの重みを予枬できたす。



さらに、ボックスが深くなるほど、機胜が向䞊するこずを期埅しおいたす。 理論的にはおそらくそうですが、実際には、深さ、局の数が増えるず、その衚珟胜力が䜎䞋するこずがしばしばわかりたす。



奇劙なこずに、このようなブラックボックスが実際のアプリケヌションで䜿甚されるこずはほずんどありたせん。







畳み蟌みネットワヌクは、コンピュヌタビゞョンタスクによく䜿甚されるずしたしょう。 そしお、そのようなブラックボックスはたったくありたせん。 圌らは、解決される問題に぀いおの先隓的な知識、先隓的な仮定をより倚く䜿甚したす-どの䟋の䟋を芋おみたしょう。



たず、画像の比范的小さなオフセットず回転の䞍倉性を確保する必芁がありたす。 これが分類結果に圱響を䞎えないようにしたす。 たずえば、プヌリング操䜜を䜿甚しおこれを実珟したす。 指定された質問を郚分的に削陀したす。



さらに、パラメヌタヌを再利甚する必芁があるずいう匷力な先隓的な知識がありたす。 畳み蟌み挔算を実行するずき、同じフィルタヌ、同じ重みを画像の異なる郚分に適甚したす。 もちろん、倚局パヌセプトロンでそのようなメカニズムを孊ぶこずはできたしたが、明らかに、これたでのずころ成功したものはほずんどありたせん。 そしお、ここでは非垞に匷い制限を課し、倚くの構造をモデルに導入したす。



最埌に、むメヌゞには階局的な性質があり、この階局のレベルはほが同じであるず想定しおいたす。



同意これはすべお、ブラックボックスず呌ぶこずはできたせん。ブラックボックスでは、最小数の仮定を構築したす。 倚くの先隓的な知識をもたらしたす。



ImageNetコンテストで珟時点で最良の結果を瀺しおいる畳み蟌みネットワヌクの䟋を次に瀺したす。 これがInception-ResNetです。 赀でマヌクされたブロックは実際にはこのように芋えたす。 次のブロックは次のようになりたす。



Inception-ResNetの構造は非垞に耇雑です。 ここでそのような非察称性が必芁な理由、ネットワヌク芁玠間のそのような耇雑な接続性が完党に明確ではありたせん。 そしお、ここでは、圓面の問題だけでなく、このネットワヌクをセットアップするために䜿甚するトレヌニング方法に぀いおも、事前知識をさらに掻甚したす。 ここでは、局間の短い結合をレむアりトしたす。 それらはネットワヌクのいく぀かの局を通過するため、䞭間局の局をバむパスしお募配がより良く広がりたす。 ここでは、いわゆる残差孊習の原理を䜿甚したす。次の各レむダヌは、前のレむダヌの入力を倉曎するだけでなく、その前に犯した間違いを修正しようずするものず想定しおいたす。 倚くの先隓的な仮定がありたす。



蚀い換えれば、より効率的なニュヌラルネットワヌクアヌキテクチャは、より正確な先隓的仮定を䜿甚し、解決されるタスクに関する情報の凊理が優れおいたす。



深局孊習では、アプリオリの仮定の抜象化のレベルが増加しおいたす。 以前に手䜜業で蚘号をコヌディングした堎合、今、私たちはおもしろい蚘号をどのように配眮すべきかをおおたかに知っおおり、それらは自分自身を孊習したす。 しかし、私たちにはすべおを決定するブラックボックスはただありたせん。



䞀般的な傟向は次のように衚されたす。トレヌニング枈みのブラックボックスが必芁であり、ブラックボックスに぀いおはほずんど理解しおいたせん。 これだけが1぀の倧きなブラックボックスではなく、倚くの小さなブラックボックス-連動しお連動したす。 良い䟋は、説明を生成するための画像キャプションのモデルです。 そこでは、かなり耇雑な畳み蟌みネットワヌクず単語を生成するリカレントネットワヌクが連動しお機胜したす。 メモリメカニズムもありたす。倚くのブラックボックスが䞀緒に機胜するように蚭定されおいたす。







たた、ニュヌラルネットワヌクは人間よりも優れおいるずいう興味深い論文もありたす。 䞀郚のタスクでは、これはそうです。 同じImageNetコンテストでは、ニュヌラルネットワヌクの粟床が䞀郚の人よりも高いいく぀かのカテゎリがありたす。



しかし、ニュヌラルネットワヌクは間違いを犯す可胜性がありたす。 ニュヌラルネットワヌク゚ラヌの䟋を瀺したす。 Googleフォトは自動的に分類され、写真の䞭の黒人の䞀郚がゎリラずしお識別されたした。 私はこの䟋を掚枬したくありたせん-これが起こる理由はたくさんありたすが、それらは必ずしもディヌプラヌニングやニュヌラルネットワヌクずは関係ありたせん。



しかし、人間の目に芋えない特殊なノむズがパンダの画像に远加されるず、高床な優れたニュヌラルネットワヌクが画像をテナガザルずしお定矩し、非垞に高い信頌床で匷制する、指向性攻撃の䟋がただありたす。



これらの䟋は、人間の知胜ず比范しお、ニュヌラルネットワヌクのある皮の無力さを実蚌するものではありたせん。 それは単玔で、コンピュヌタヌビゞョンでは-すべおではないにしおも、倚くのタスクが解決されおいるように思えたすが、かなり基本的なタスクでも䜜業が必芁です。







深局孊習では、倧量のデヌタで倧芏暡および非垞に倧芏暡なモデルをトレヌニングできるこずは本圓に玠晎らしいこずです。 これは、確率的募配最適化の䜿甚により可胜になりたす。 私たちの問題が、ある関数の期埅倀を最小化するこずで衚珟できる堎合完党な倀ΟずパラメヌタヌΞのノルムがある堎合、Ξのすべおの可胜な倀に最適なパラメヌタヌを芋぀けたいず思いたす。 そしお、そのような確率、期埅は、さたざたな状況で発生する可胜性がありたす。たずえば、トレヌニングサンプル党䜓で平均化する堎合です。 蚀い換えれば、ランダム倉数はサンプルからオブゞェクトを遞択する圹割を果たしたす。 そしお、すべおのオブゞェクトを平均するず、すべおのオブゞェクトを調べ、損倱関数を蚈算しおから平均するのず同じになりたす。



たたは、Ξは䜕らかの内郚ノむズたたは䞍確実性である可胜性がありたす。 たずえば、今日議論されおいる生成モデルはこの原則を䜿甚しおいたす。 いく぀かのランダムなノむズがあり、それがたずえば人間の顔の写真になりたす。 このような確率の䟋もここにありたす。



関数fにほずんど䜕も䟝存しないのはずおもクヌルです。 このような関数を最小化する普遍的な方法、いわゆる確率的募配降䞋法がありたす。これは倚くの人が聞いたこずであり、この倧きな期埅をすべお蚈算する必芁はありたせん。 ランダム倀の1぀のランダムポむントでの関数たたはその募配の倀で十分です。



募配最適化手法を䜿甚するず、機械孊習システム党䜓を類䌌のコンポヌネントモデル、損倱関数、オプティマむザヌに分解できたす。これは、トレヌニングの成功の非垞に重芁な芁玠です。 最適化方法が異なるず、䞀定の反埩回数を経お、根本的に異なる収束率ず根本的に異なる品質が生成されたす。



興味深いこずに、これは、プログラミングで芋られるモデルビュヌコントロヌラモデルに䌌おいたす。 ここから䜕かが続くかもしれたせん。







損倱関数ずオプティマむザヌを修正するず、モデルのみに集䞭できたす。 空腹の倧孊院生、孊生、たたぱンゞニアにそれを提䟛し、95パヌセントの品質が欲しいず蚀いたす。 そしお、圌らの知識、創造力を䜿甚しお、単䞀の募配最適化フレヌムワヌクでモデルを組み合わせ、異なる郚分から異なるモデルを構成し、詊しお、倉曎するこずができたす。 そしお最終的に、圌らは必芁な倀のしきい倀を克服するこずができたす。



人々は珟代䞖界でどのようにニュヌラルネットワヌクを構築したすか ネットワヌクが特別なアプロヌチを必芁ずしない堎合、この䟋のように、kerasのような単玔な既存のラむブラリを䜿甚するだけで十分です。その埌、ニュヌラルネットワヌクの構造を決定したす。その埌、このモデルをトレヌニングするために蚈算グラフが自動的に構築されたす。 モデル自䜓があり、デヌタが受信され、損倱関数からの募配が自動的に蚈算されたす。 オプティマむザヌがありたす-ネットワヌクの重みを曎新したす。 これらはすべお、必ずしもコンピュヌタヌではなく、さたざたなデバむスで機胜したす。 耇数のコンピュヌタヌで䞊行しお実行するこずもできたす。 それは偉倧な抜象化に぀いおです。 䞍思議に思われたすが、䞀般的には、ニュヌラルネットワヌクのメタファヌが本圓に必芁なのでしょうか



確率的募配降䞋法たたは他の募配法を䜿甚しお重みを調敎する必芁があるこずがわかっおいる堎合、頭の䞭のいく぀かのニュヌロンず平行線を匕く必芁があるのはなぜですか これに぀いお詳しく説明する準備はできおいたせん。私たちの脳がどのように機胜するのかわかりたせん。 しかし、これらの比phorは非垞に有害であり、垞に物事の実際の状態に察応するずは限らないように思えたす。



同時に、実際のニュヌラルネットワヌクを䜿甚した䞊列の拒吊は、予想以䞊の結果をもたらしたす。 「ニュヌラルネットワヌク」ずいう甚語から「埮分可胜な関数」ずいう甚語に移行するず、新しいモデルを構築できる関数の基盀が倧幅に拡匵されたす。 そしお、おそらく圌らの衚珟力は増倧するだけでしょう。







こうした移行を詊みおいるむニシアチブは非垞に倚くありたす。 これは別のレポヌトに倀したす。 しかし、私にずっお非垞に有甚であるず思われ、プログラミングに関連する関連分野から深い孊習研究者が孊ばなければならないいく぀かのこずを䌝えたいず思いたす。



たず、最適化する関数が埮分可胜たたは平滑でなければならないこずを知っおいるか、他の制限を課すず仮定したす。 たた、このプロパティは閉じた操䜜構成、远加、その他に察しお保持されるず仮定したす。 これらの条件䞋で、高床な型システムを備えたプログラミング蚀語では、コンパむル段階で埮分可胜性、滑らかさ、およびその他のプロパティを完党に確率論的にチェックできたす。



最埌に、小さな「ブラックボックス」、埮分可胜な関数を通垞のプログラミング蚀語に埋め蟌むずいうアむデアが本圓に奜きです。 , , : , , , , . , . , .



— - , . , , .



Topcoder - , , , , — , . - . .



, , . .



, , , — , . ?



, , . , — , .



, , , . — - .



.







, . . , , . , : . , .



. ImageNet. : DQN AlphaGo. , . DQN , , , , . 10 , 10 , - .



AlphaGo ( — . .) 30 , . , .



. , «» , . -, - . , .







, , — . , . , , - .



— , - . . ご枅聎ありがずうございたした。



All Articles