深い畳み蟌みニュヌラルネットワヌクトポロゞの抂芁

長い投皿になりたす。 私は長い間このレビュヌを曞きたいず思っおいたしたが、 sim0nsaysが私よりも先を行き、たずえばImageNetの結果がどのように衚瀺されるかなど、少し埅぀こずにしたした。 今、その時が来たしたが、想像力は䜕の驚きももたらしたせんでした。ただし、分類の最初の堎所は䞭囜のefesbeshnikiです。 ceglの最高の䌝統にある圌らのモデルは、いく぀かのモデルInception、ResNet、Inception ResNetのアンサンブルであり、過去の勝者を半パヌセント远い越したすずころで、ただ出版物はなく、本圓に新しい䜕かがあるずいうわずかなチャンスがありたす。 ちなみに、画像の結果からわかるように、最終モデルのアヌキテクチャの幅が広くなっおいるこずから明らかなように、レむダヌの远加で䜕かがおかしくなりたした。 おそらく、ニュヌラルネットワヌクから絞り出せるすべおのものでしょうか たたは、NVidiaはGPU 䟡栌で過床にいじめられおいるため、AIの開発を遅らせおいたすか 冬は近いですか 䞀般的に、これらの質問にはここでは答えたせん。 しかし、カットの䞋には、タンバリンず䞀緒に倚くの写真、レむダヌ、ダンスがありたす。 ゚ラヌの逆䌝播アルゎリズムに既に粟通しおおり、畳み蟌みニュヌラルネットワヌクの基本的な構成芁玠である畳み蟌みずプヌリングの仕組みを理解しおいるこずが理解されたす。







神経生理孊からコンピュヌタヌビゞョンぞの移行



ストヌリヌは、ニュヌラルネットワヌク人工的なものだけでなくの分野の先駆者ずその貢献から始めおください。 マッカロックピットニュヌロンの正匏なモデル、 ヘブの孊習理論 、 ロヌれンブラットのパヌセプトロン 、 ポヌルバッハリタの実隓など。独立した仕事のため。 だから、1981幎のノヌベル賞受賞者であるデむビッド・フヌベルずトヌステン・ノィヌれルにすぐに行くこずを提案したす。 圌らは1959幎に行われた仕事に察しお賞を受賞したした同時に、Rosenblattは実隓を行いたした。 正匏には、この賞は「神経構造における情報凊理の原理ず脳掻動のメカニズムに関する研究」に察しお授䞎されたした。 敏感な読者はすぐに泚意する必芁がありたす。 猫の実隓に぀いおは以䞋で説明したす。 実隓モデルを次の図に瀺したす。さたざたな角床で、暗い画面で明るい现長い長方圢が猫に衚瀺されたす。 オシロスコヌプの電極は、哺乳類の芖芚情報凊理センタヌがある脳の埌頭郚に接続されおいたす。 実隓䞭、科孊者は次の効果を芳察したした最新の畳み蟌みネットワヌクずリカレントネットワヌクずの類䌌点を簡単に芋぀けるこずができたす。











この調査の結果の1぀は、次の特性を持぀芖芚システムたたは地圢図のモデルでした。











フヌベルずノィヌれルのアむデアをプログラムコヌドに倉換しようずする最初の詊みは、1975幎から1980幎の間にコグニトロンずネオコグニトロンの 2぀のモデルを提案した犏島邊圊でした。 これらのモデルは生物孊的モデルをほが繰り返しおおり、今日では単玔なセルの畳み蟌み 、および耇雑なセルのプヌルず呌ばれおいたす。これらは䟝然ずしお珟代の畳み蟌みニュヌラルネットワヌクの䞻芁な構成芁玠です。 モデルは、゚ラヌの逆䌝播アルゎリズムによっおではなく、教垫なしのモヌドでの元のヒュヌリスティックアルゎリズムによっおトレヌニングされたした。 この䜜業がニュヌラルネットワヌクのコンピュヌタヌビゞョンの始たりだったず掚枬できたす。



文曞認識に適甚される募配ベヌスの孊習 1998





数幎埌、1998幎が来たした。 冬が過ぎたした。 ゚ラヌ逆䌝播アルゎリズムに関する蚘事の著者の1人のポスドクであるJan LeCunnは 、ニュヌラルネットワヌクの他の著名人ず協力しお䜜品を公開したす。これは、畳み蟌みずプヌリングのアむデアをbackpropず組み合わせ、最終的に最初の動䜜する畳み蟌みニュヌラルネットワヌクを取埗したす。 むンデックス認識のために米囜のメヌルに埋め蟌たれたした。 このアヌキテクチャは、最近たで畳み蟌みネットワヌクを構築するための暙準テンプレヌトでした。畳み蟌みは、数回プヌルされ、その埌、完党に接続された耇数の局で亀互に行われたす。 このようなネットワヌクは6䞇個のパラメヌタヌで構成されおいたす。 䞻な構成芁玠は、シフト1の5×5コンボリュヌションずシフト2の2×2プヌルです。すでにご存知のように、コンボリュヌションは特城怜出噚の圹割を果たし、プヌリングたたはサブサンプリングを䜿甚しお次元を枛らし、 画像にプロパティがあるずいう事実を掻甚したすピクセルの局所盞関 -原則ずしお、隣接するピクセルは互いに倧きく異なりたせん。 したがっお、いく぀かの隣接するものから集蚈が取埗された堎合、情報の損倱はわずかです。







ディヌプコンボリュヌショナルニュヌラルネットワヌクを䜿甚したImageNet分類 2012





もう14幎が経ちたした。 LeCunがポストドックであった同じ研究所のAlex Krizhevskyは、最埌の成分を凊方に远加したした。 ディヌプラヌニング=モデル+孊習理論+ビッグデヌタ+ ハヌドりェア 。 GPUは、トレヌニングされたパラメヌタヌの数を倧幅に増やしたした。 このモデルには、3桁以䞊の6,000䞇個のパラメヌタヌが含たれおおり、2぀のグラフィックアクセラレヌタヌを䜿甚しおこのようなモデルをトレヌニングしたした。







その他の画像AlexNet
GPUデヌタ亀換





レむダヌサむズ







ネットワヌクトポロゞの芳点から芋るず、これはほが同じLeNetであり、1000倍の倧きさです。 さらにいく぀かの畳み蟌み局が远加され、畳み蟌みカヌネルのサむズはネットワヌクの入力から出力に向かっお枛少したす。 これは、最初はピクセルが高床に盞関しおおり、受容䜓領域を安党に倧きく取るこずができるずいう事実によるものであり、ただ少しの情報が倱われおいたす。 次に、プヌリングを䜿甚しお、無盞関領域の密床を増やしたす 。 次のレベルでは、わずかに小さい受容䜓領域を取るこずが論理的です。 その結果、著者はそのような畳み蟌みのピラミッドを取埗したした11×11-> 5×5-> 3×3 ...



再トレヌニングを回避するために他のトリックも䜿甚されたしたが、それらの䞀郚は珟圚、ディヌプネットワヌクの暙準であるDropOut RIP、Data Augmentation、 ReLuです。 これらのトリックに焊点を圓おるのではなく、モデルのトポロゞヌに焊点を圓おたす。 2012幎以降、非ニュヌラルネットワヌクモデルが画像を獲埗できなくなったこずだけを远加したす。







倧芏暡画像認識甚の非垞に深い畳み蟌みネットワヌク 2014幎4月12日





今幎2぀の興味深い蚘事が発衚されたした。この蚘事ずGoogle Inceptionです。これに぀いおは以䞋で説明したす。 オックスフォヌド研究所の研究は、LeCunが定めたトポロゞヌのパタヌンに準拠した最埌の研究です。 VGG-19モデルは1億4400䞇のパラメヌタヌで構成され、8400䞇のパラメヌタヌに加えお、アヌキテクチャに別の簡単なアむデアを远加したす。 たずえば、5×5の畳み蟌み、このマッピング 、25個のパラメヌタヌが含たれおいたす。 畳み蟌みが3×3の2぀のレむダヌのスタックに眮き換えるず、同じ衚瀺になりたすが、パラメヌタヌの数は3×3 + 3×3 = 18ずなり、これは22少なくなりたす。 11×11を4぀の3×3畳み蟌みに眮き換えるず、これはすでにパラメヌタヌよりも70少なくなりたす。







VGG- *モデル




VGG-16フロヌグラフ





ネットワヌク内ネットワヌク 2014幎3月4日









そしお、ここからタンバリンず螊り始めたす。 このような写真で、この出版物の著者は圌のブログ投皿を䟋蚌し、そこでは圌がascadedrosshannelParameteric poolingに぀いお話したした。 この蚘事の䞻なアむデアを怜蚎しおください。 明らかに、畳み蟌み挔算は画像パッチの線圢倉換であり、畳み蟌み局は䞀般化線圢モデルGLMです。 画像は線圢に分離可胜であるず想定されおいたす。 しかし、なぜCNNが機胜するのでしょうか すべおが単玔です。過剰な衚珟倚数のフィルタヌを䜿甚しお、属性空間内の1぀の画像のすべおのバリ゚ヌションを考慮したす。 1぀のレむダヌでフィルタヌが倚いほど、次のレむダヌで考慮する必芁があるバリ゚ヌションが増えたす。 どうする GLMをより効率的なものに眮き換えたしょう。 最も効果的なのは単局パヌセプトロンです。 これにより、暙識のスペヌスをより効果的に分割し、暙識の数を枛らすこずができたす。







あなたはすでにそのような決定の劥圓性を疑い始めおいるず確信しおいたす。私たちはサむンの数を本圓に枛らしたすが、パラメヌタヌの数を倧幅に増やしたす。 著者は、゜連がこの問題を解決するず述べおいたす。 それは次のように機胜したす畳み蟌み局の出口で、サむズW×H×Dの立方䜓を取埗したす。各䜍眮w、hに぀いお、D、クロスチャンネルのすべおの倀を取埗し、線圢結合、パラメトリックプヌリングを蚈算したす。回、それによっお新しいボリュヌムを䜜成し、数回-カスケヌド。 これらは、1×1のたたみ蟌みずそれに続く非線圢性であるこずがわかりたす。 このトリックは、理想的には3×3コンボリュヌションに関するVGGの蚘事ず同じですが、最初は通垞のコンボリュヌションをMLPに眮き換えるこずを提案したすが、MLPは非垞に高䟡なので、その完党に接続された各レむダヌを畳み蟌みレむダヌに眮き換えたす-シンガポヌルのトリック。 NINは深い畳み蟌みニュヌラルネットワヌクであり、畳み蟌みの代わりに、1×1コアの小さな畳み蟌みニュヌラルネットワヌクがあるこずがわかりたした。







さらに興味深い次のアむデアは、完党に接続されたレむダヌを完党に攟棄するこずです-グロヌバル平均プヌリング。 このようなネットワヌクは、特定の画像サむズを入力する必芁がなく、畳み蟌み/プヌリングのみで構成されるため、完党な畳み蟌みネットワヌクず呌ばれたす。 N個のクラスぞの分類問題があり、キュヌブW×H×DからキュヌブW×H×Nを䜜成するために、完党に接続されたレむダヌの代わりに1×1の畳み蟌みが䜿甚されるず仮定したす。぀たり、1×1の畳み蟌みはキュヌブの深さを任意に倉曎できたすサむン。 N個のダむスがW×Hの堎合、ダむスの平均倀を蚈算し、softmaxを蚈算できたす。 少し深い考えは、以前の畳み蟌み局は単に蚘号を抜出するメカニズムずしお機胜し、匁別噚は完党に接続された局であったずいう著者の䞻匵にありたすそこからLeCunnが指定したパタヌン。 ネットワヌクは畳み蟌みのみで構成され、分類問題を解決するため、著者は畳み蟌みも匁別子であるず䞻匵しおいたす。 LeNet圢匏の畳み蟌みネットワヌクでは、蚈算の80が畳み蟌み局にあり、メモリ消費の80が完党に接続された局にあるこずに泚意しおください。







LeCunは埌にフェむスブックに次のように曞いおいたす 。



畳み蟌みネットでは、「完党に接続されたレむダヌ」などはありたせん。 1×1の畳み蟌みカヌネルず完党な接続テヌブルを持぀畳み蟌み局のみがありたす。




非垞に倚くの新しいアむデアを思い぀いた著者が画像に参加しなかったこずは残念です。 しかし、Googleはこれらのアむデアをすぐに倧隒ぎし、次の出版物で䜿甚したした。 その結果、Googleは2014幎の受賞地をオックスフォヌドのチヌムず共有したした。



畳み蟌みでさらに深く 2014幎9月17日









Googleはゲヌムに参入し、圌らはネットワヌクInceptionず名付けたした。名前は偶然に遞ばれたものではなく、「ネットワヌク内郚のネットワヌク」ず有名な​​ミヌムに関する前䜜のアむデアを匕き継いでいるようです。 著者が曞いたものは次のずおりです。



この論文では、有名な「我々はより深く行く必芁がある」ずずもに、リンら[12]によるネットワヌク論文のNetworkからその名前を埗た、Inceptionず呌ばれるコンピュヌタヌビゞョンのための効率的なディヌプニュヌラルネットワヌクアヌキテクチャに焊点を圓おたすむンタヌネットミヌム[1]。 私たちの堎合、「深い」ずいう蚀葉は2぀の異なる意味で䜿甚されたす。たず、「むンセプションモゞュヌル」ずいう圢で新しいレベルの組織を導入するずいう意味ず、ネットワヌクの増加ずいうより盎接的な意味深さ。 䞀般に、むンセプションモデルは[12]の論理的集倧成であるず芋なすこずができたすが、アロラらの理論的研究からむンスピレヌションずガむダンスを埗おいたす[2]。




幅レむダヌ内のニュヌロンの数ず深さレむダヌの数の任意の増加には、倚くの欠点がありたす。 第䞀に、パラメヌタの数を増やすず再トレヌニングが容易になり、局の数を増やすず募配枛衰の問題が増えたす。 ずころで、最埌のステヌトメントはResNetによっお解決されたすが、これに぀いおは埌で説明したす。 第二に、レむダヌ内の畳み蟌み数が増加するず、このレむダヌでの蚈算が2次的に増加したす。 新しいモデルのパラメヌタヌが非効率的に䜿甚されおいる堎合、たずえば、それらの倚くがれロに近くなる堎合、単玔に蚈算胜力を浪費しおいたす。 これらの問題にも関わらず、この蚘事の最初の著者は、深いネットワヌクで実隓するこずを望んでいたしたが、パラメヌタヌを倧幅に枛らしたした。 これを行うために、圌は蚘事「 いく぀かの深い衚珟を孊習するための蚌明可胜な境界 」に目を向けたした。そこでは、デヌタの確率的分垃がたばらで深くお広いニュヌラルネットワヌクずしお衚珟できる堎合、ニュヌロンの盞関を分析するこずでこのデヌタセットに最適なニュヌラルネットワヌクを構築できるこずを蚌明しおいたす前の局ず盞関するニュヌロンを次の局のニュヌロンになるグルヌプに結合したす。 したがっお、埌局ニュヌロンは、元の画像の匷く亀差する領域を「芋たす」。 ニュヌロンの受容䜓領域が異なるレベルでどのように芋えるか、そしおそれらが抜出する兆候を思い出させおください。



VGG-19ネットワヌクのconv1_2局の受容䜓領域
はい、受容領域は非垞に小さいため、ほずんど䜕も衚瀺されたせん。これはそれぞれ2番目の3×3畳み蟌みであり、䞀般的な面積は5×5です。









VGG-19ネットワヌク受容䜓局conv3_3






VGG-19ネットワヌクのconv4_3局の受容䜓領域






VGG-19ネットワヌク受容䜓局conv5_3






VGG-19ネットワヌクpool5受容䜓領域






初期局入り口に近いでは、盞関ニュヌロンは局所領域に集䞭したす。 ぀たり、プレヌト䞊の同じ座暙w、hにある耇数のニュヌロンが同じこずを孊習できる堎合、最初の局の埌のテン゜ルでは、それらの掻性化は特定の点w、hの領域の小さな領域に配眮されたすが、分垃したすフィルタヌバンクの次元に沿っお配眮されたす-D.このようなもの







このような盞関をキャッチしお、それらを1぀の兆候に倉える方法は 前䜜からの1×1畳み蟌みのアむデアが助けになりたす。 この考えを続けるず、盞関クラスタヌの数がわずかに少なく、たずえば3×3になるず想定できたす。これは5×5などにも圓おはたりたすが、Googleは5×5で停止するこずにしたした。



たたみ蟌み1×1






たたみ蟌み3×3






たたみ蟌み5×5






各畳み蟌みの特城マップを蚈算した埌、それらを䜕らかの方法で集玄する必芁がありたすたずえば、連結フィルタヌ。



暙識の連結






ちなみに、前のレむダヌの元の画像を倱わないために、畳み蟌みに加えお、プヌリングの兆候も远加されおいたすプヌリング操䜜は情報の倧きな損倱を䌎わないこずを芚えおいたす。 ずにかく、誰もがプヌリングを䜿甚したす-それを拒吊する理由はありたせん。 耇数の操䜜のグルヌプ党䜓をInceptionブロックず呌びたす。



さらに、珟圚の最先端の畳み蟌みネットワヌクの成功にはプヌリング操䜜が䞍可欠であるため、このような各段階で代替の䞊列プヌリングパスを远加するこずも有益な効果があるこずを瀺唆しおいたす。








出力テン゜ルのサむズを均䞀にするために、1×1の畳み蟌みを䜿甚するこずも提案されおいたす。これは、プル操䜜の盎埌の図で芋るこずができたす。 さらに、1×1の畳み蟌みは、゚ネルギヌ集玄的な畳み蟌み操䜜の前に次元を削枛するためにも䜿甚されたす。 ご芧のずおり、Googleはこのような目暙を達成するために1×1の畳み蟌みを䜿甚しおいたす次䞖代ネットワヌクもこれらの手法を掻甚したす。





最終的なモデルは次のずおりです。







䞊蚘に加えお、異なるレベルのいく぀かの远加分類子にも気付くこずができたす。 元のアむデアは、そのような分類噚が初期の局に募配を「抌し出す」こずを可胜にし、それによっお募配枛衰の圱響を枛らすずいうものでした。 Googleはそれらを埌で拒吊したす。 ネットワヌク自䜓がテン゜ルの深さを埐々に増やし、空間次元を枛らしたす。 蚘事の終わりに、著者はそのようなモデルの有効性の問題を未解決のたたにしおおり、たた、䞊蚘の原則を䜿甚しおネットワヌクトポロゞを自動的に生成する可胜性を探るこずを瀺唆しおいたす。



コンピュヌタヌビゞョンのむンセプションアヌキテクチャの再考 2015幎12月11日





1幎埌、グヌグルはこの画像に察しお十分に準備を敎え、昆虫の構造を再考したが、完党に新しいモデルを倱いたした。これに぀いおは次のパヌトで説明したす。 新しい蚘事では、著者は実際にさたざたなアヌキテクチャを怜蚎し、コンピュヌタヌビゞョン甚の深い畳み蟌みニュヌラルネットワヌクを構築するための4぀の原則を開発したした。







倧きな畳み蟌みを3×3畳み蟌みスタックに分解できるずいう2014 VGGのアむデアを芚えおいたすか したがっお、グヌグルはさらに進んで、すべおの畳み蟌みをN×1および1×Nで因数分解したした。







むンセプションブロックモデル
最初はオリゞナルです。





VGGの原理によっお最初に因数分解されたした。





新しいブロックモデル。







ボトルネックに関しおは、次のスキヌムが提案されおいたす。 入力次元が 、取埗したい 、その埌、最初に畳み蟌みを適甚したす 1のステップでフィルタリングしおから、ケヌスプヌリング。 そのような操䜜の党䜓的な耇雑さ 。 最初に匕っ匵り、次に畳み蟌みを行うず、耇雑さが䜎䞋したす しかし、その埌、最初の原則に違反したす。 䞊列分岐の数を増やし、2のステップで畳み蟌みを行うこずが提案されおいたすが、同時にチャネル数を2倍にするず、代衚衚珟力は「スムヌザヌ」を枛少させたす。 そしお、テン゜ルの深さを操䜜するために、1×1の畳み蟌みが䜿甚されたす。







新しいモデルはInception V2ず呌ばれ、 バッチ正芏化を远加するず、Inception V3がありたす。 ちなみに、远加の分類子は削陀されたした。これらは特に品質を向䞊させるわけではないが、正芏化子ずしお機胜できるこずが刀明したためです。 しかし、この時点たでに、正芏化するためのより興味深い方法がすでにありたした。



画像認識のための深局孊習 2015幎12月10日





2015幎にGoogleが倱ったMicrosoft Researchの䞭囜郚門の仕事を研究する時が来たした。 単にもっず倚くのレむダヌをドレヌンするず、そのようなモデルの品質は䞀定の限界たで䞊昇しVGG-19を参照、その埌䜎䞋し始めるこずが長い間気づいおいたした。 この問題は劣化問題ず呌ばれ、より倚くの局をドレヌンするこずによっお埗られるネットワヌクはプレヌンな、たたはフラットなネットワヌクです。 著者は、新しいレむダヌを远加するこずでモデルの品質が向䞊するトポロゞを芋぀けるこずができたした。







これは、䞀芋、単玔なトリックによっお達成されたすが、予期しない数孊的結果に぀ながりたす。 アヌノルドずコルモゎロフのおかげで、私たちず圌らは、ニュヌラルネットワヌクがほがすべおの関数、たずえば、いく぀かの耇雑な関数を近䌌できるこずを認識しおいたす。 。 そしお、そのようなネットワヌクが残差関数を簡単に孊習できるこずは事実ですロシア語では残差関数ず呌びたす。 。 明らかに、最初の目的関数は 。 ネットワヌク、たずえばVGG-19を䜿甚し、さらに20局を远加する堎合、深局ネットワヌクが少なくずもその浅局ネットワヌクよりも悪くならないようにしたす。 劣化の問題は、耇雑な非線圢関数 いく぀かのレむダヌをドレヌンするこずで埗られたものは、以前のレむダヌで品質の限界に達した堎合に恒等倉換を孊習するはずです。 しかし、これは䜕らかの理由で発生したせん。おそらく、オプティマむザは単玔に重みの調敎に察応できないため、耇雑な非線圢階局モデルが同䞀の倉換を行いたす。 しかし、ショヌトカット接続を远加するのを手䌝えば、オプティマむザヌがすべおの重みをれロに近づけるこずは、同䞀の倉換を䜜成するよりも簡単かもしれたせん。 確かに、これはアむデアを埌抌しするこずを思い出させたす。







フラットネットワヌクを残䜙ネットワヌクに倉換する䟋






テアノ/ラザニアでのResNet-52の構築の詳现をここで説明したす 。ここでは、Googleが遺蚀しおいるように、1×1の畳み蟌みが次元の増枛に䜿甚されるこずのみに蚀及したす。 ネットワヌクは完党に畳み蟌みです。







残差関数がれロに近いずいう仮説の正圓化の1぀ずしお、著者は、局に応じお残差関数の掻性化のグラフを瀺し、フラットネットワヌクの局の掻性化を比范したす。







そしお、これらすべおからの結論はおよそ次のずおりです。







ResNet'ovず以前のすべおのネットワヌクの深さを比范する








著者の別の興味深いスラむドは、圌らがネットワヌクの深さ/品質に突砎口を開いたこずを瀺しおいたす。 , , , 19- VGG, 152 .







, . , 2016 , . .



ResNet:





Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning (23 Feb 2016)





, , Inception, ResNet'. , , , . , , . Inception V4 Inception ResNet.



Inception V4 , Inception-. , , 4 , , — , .



Inception V4
䞀般的なネットワヌク図。





ステムブロック。





むンセプションブロックA







Inception V4 Inception- , shortcut-, Inception ResNet.







, , , .






Identity Mappings in Deep Residual Networks (12 Apr 2016)





ResNet, , : . , . . , ; , . , 1001 . , 2014 19- «very deep convolutional neural networks».







. させる





, — , . K , . , . - k , , : . , - . , , vanishing gradients, , –1. , . , .







, - ? , 。 . , . , . .



residual- , , , .













— ( JÃŒrgen Schmidhuber ). LSTM- , 1997 , , ResNet — , LSTM, 1. , — Highway Network . , , , (gate), , .







Bridging the Gaps Between Residual Learning, Recurrent Neural Networks and Visual Cortex (13 Apr 2016)





, ResNet RNN. . , , , , , , .



The dark secret of Deep Networks: trying to imitate Recurrent Shallow Networks?



A radical conjecture would be: the effectiveness of most of the deep feedforward neural networks, including but not limited to ResNet, can be attributed to their ability to approximate recurrent computations that are prevalent in most tasks with larger t than shallow feedforward networks. This may offer a new perspective on the theoretical pursuit of the long-standing question “why is deep better than shallow”.





Residual Networks are Exponential Ensembles of Relatively Shallow Networks (20 May 2016)





, DropOut, , . , . . , ResNet — . . ResNet, , shortcut- flowing graph'.







:





, , . , , multiplicity, -, , — . , , (). , , , (). , , .



, . , , . , ResNet .







, ResNet . , , .







, VGG ResNet .



結果は玠晎らしいです。






次の実隓では、著者は異なる長さのサブネットから取埗した募配の絶察倀の分垃を構築したす。 ResNet-50の有効なサブネット長は5〜17局であり、すべおのパス長の45しか占有しおいたせんが、モデル党䜓のトレヌニングぞのほがすべおの寄䞎を占めおいたす。



募配分垃分析。






おわりに





ResNetは進化を続けおおり、さたざたなグルヌプが新しいこずに挑戊し、過去の実瞟のあるパタヌンを適甚しおいたす。 たずえば、ResNetでResNetを䜜成したす。







このレビュヌで蚀及されおいないものを読んだ堎合は、コメントで教えおください。 このような新しい蚘事のストリヌムですべおを远跡するこずは、単に珟実的ではありたせん。 この投皿はブログで管理されおいたしたが、リストにさらに2぀の新しい出版物を远加するこずができたした。 1぀はグヌグルが昆虫の新しいバヌゞョンであるXceptionに぀いお、もう1぀はピラミッド型ResNetに぀いおです。



ニュヌラルネットワヌクに぀いお少し知っおいる人に、ネットワヌクの皮類を尋ねるず、圌は正垞完党に接続された畳み蟌みで再発しおいるず蚀いたす。 すべおのタむプのニュヌラルネットワヌクが同じクラスに属する理論的基盀がたもなく登堎するず思われたす。 普遍的な近䌌定理がありたす。これは、任意のほが関数をニュヌラルネットワヌクで近䌌できるず蚀いたす。 RNNの同様の定理は、動的システムはリカレントネットワヌクによっお近䌌できるず述べおいたす。 そしお今、RNNは通垞のネットワヌクで近䌌できるこずがわかりたしたただし、これを蚌明するために残っおいたす。 䞀般的に、私たちは面癜い時間に䜏んでいたす。



衚瀺されたす。





All Articles