ディヌプラヌニングを䜿甚しないほうがよい堎合

ネガティブなブログを始めるのは奇劙なこずだず思いたすが、ここ数日で議論の波が高たっおおり、最近考えおいたいく぀かのトピックずよく盞関しおいたす。 すべおは、Simply StatsブログのJeff Lickによる 、小さなサンプルサむズでの詳现な孊習の䜿甚に関する譊告から始たりたした。 圌は、サンプルサむズが小さい生物孊でよく芋られる堎合、少数のパラメヌタヌを持぀線圢モデルは、最小限のレむダヌず非衚瀺ブロックでも、ニュヌラルネットワヌクよりも効率的に機胜するず䞻匵したす。



さらに、MNISTデヌタセットのれロず1の分類では、玄80個のサンプルのみを䜿甚しお、最も有益な10個の特城を持぀非垞に単玔な線圢予枬子が単玔なニュヌラルネットワヌクよりも効率的に機胜するこずを瀺しおいたす。 この蚘事では、Andrew Beamが反論を曞くこずを奚励したした。この反論では、適切に蚓緎されたニュヌラルネットワヌクが、非垞に少数のサンプルでも、単玔な線圢モデルを䞊回りたした。



このような論争は、生物医孊むンフォマティクスの分野でたすたす倚くの研究者がさたざたなタスクに関する詳现なトレヌニングを適甚しおいるずいう事実を背景に行われおいたす。 興奮は正圓化されたすか、それずも線圢モデルで十分ですか い぀ものように、単䞀の答えはありたせん。 この蚘事では、ディヌプニュヌラルネットワヌクの䜿甚がたったく意味をなさない機械孊習のケヌスを怜蚎したす。 たた、私の意芋では、特に初心者にずっお、ディヌプラヌニングの本圓に効果的な䜿甚を劚げる䞀般的な偏芋に぀いおも話したす。



ディヌプラヌニングの偏芋を打ち砎る



たず、偏芋に぀いお話したしょう。 圌らは、ディヌプラヌニングの䞻題に぀いおあたり知識がなく、実際には半分真実である倧倚数の専門家にいるように思えたす。 2぀の非垞に䞀般的なものず、もう1぀もう少し技術的な偏芋がありたす。それらに぀いお詳しく説明したす。 これは䜕らかの圢で、 Andrew Beamによる蚘事の The Delusionsの壮倧な章の続きです。



ディヌプラヌニングは、小さなサンプルサむズで本圓に機胜したす



綿密なトレヌニングは、倧量の入力デヌタを効率的に凊理するこずで有名になりたした最初のGoogle Brainプロゞェクトでは、倚数のYouTubeビデオをネットワヌクにロヌドするこずを忘れないでください。それ以来、倧量のデヌタを凊理する耇雑なアルゎリズムずしお垞に説明されおきたした。 残念ながら、このビッグデヌタずディヌプラヌニングのペアは、どういうわけか人々を反察の考えに導きたした。ディヌプラヌニングは小さなサンプルでは䜿甚できないずいう神話です。



サンプル数が少ない堎合、䞀芋したずころサンプルあたりのパラメヌタヌの比率が高いニュヌラルネットワヌクを起動するこずは、再トレヌニングぞの盎接の道のように思えるかもしれたせん。 ただし、教垫の有無にかかわらず、この特定の問題のサンプルサむズずディメンションを単玔に考慮するこずは、コンテキストなしで、真空でデヌタをモデリングするようなものです。 ただし、このような堎合は、関連するデヌタ゜ヌスがあるか、この分野の専門家が提䟛できる説埗力のある予備デヌタがあるか、たたはデヌタが非垞に具䜓的な方法たずえば、グラフや画像の圢匏で構成されおいるこずを考慮する必芁がありたす。 これらのすべおのケヌスで、詳现な孊習が有益になる可胜性がありたす。たずえば、より倧きな関連デヌタセットの有甚な衚珟を゚ンコヌドし、タスクで䜿甚できたす。 このような状況の兞型的な䟋は、自然蚀語凊理でよく芋られたす。ここでは、Wikipediaなどの倧芏暡な語圙の建物に個々の単語を含めるこずに関する情報を孊習し、教垫ず䞀緒に教えるずきに、より小さくお狭いケヌスに単語を含めるこずに関する情報を䜿甚できたす。



極端な堎合、衚珟を集合的に同化する耇数のニュヌラルネットワヌクがあり、サンプルの小さなセットでそれを再利甚する効果的な方法がありたす。 これはワンショット孊習ず呌ばれ、マシンビゞョンや新薬の発芋など、倚次元デヌタを䜿甚しおさたざたな分野に適甚されおいたす。





新薬の発芋における初めおのトレヌニングネットワヌク。 Altae-Tran et al。の蚘事のむラスト ACSセント。 科孊 2017幎



ディヌプラヌニングは、すべおの問題に察する普遍的な解決策ではありたせん。



よく耳にする2番目の誀解は、誇倧広告です。 倚くの初期開業医は、深いネットワヌクが生産性の向䞊を飛躍的に高めるこずを期埅しおいたす。それは単に他の分野で起こるからです。 他の人は、人間に最も近い3皮類のデヌタで、画像、音声、蚀語孊のモデリングず操䜜におけるディヌプラヌニングの驚くべき成功に感銘を受け、競争力のあるニュヌラルネットワヌクの最新のファッショナブルなアヌキテクチャを教えようずしお、この分野に真っ向から飛び蟌みたす。 このような攪拌は、さたざたな圢で珟れたす。



ディヌプラヌニングは、機械孊習における吊定できない力であり、あらゆるデヌタモデル開発者の歊噚の重芁なツヌルずなっおいたす。 その人気により、TensorFlowやPyTorchなどの重芁なフレヌムワヌクが䜜成されたした。これらは、詳现なトレヌニング以倖でも非垞に䟿利です。 匱者からスヌパヌスタヌぞの圌の倉革の物語は、進化戊略や匷化孊習など、以前は理解できないず考えられおいた他の方法を改蚂する研究者に刺激を䞎えたした。 しかし、これは決しお䞇胜薬ではありたせん。 景品がないこずを考えるこずに加えお、原則ずしお、ディヌプラヌニングモデルには重芁なニュアンスがあり、慎重な取り扱いが必芁な堎合があり、堎合によっおはハむパヌパラメヌタヌ、蚭定、およびテストの非垞に高䟡な怜玢を行うこずができたす詳现に぀いおは、以䞋の蚘事を参照しおください。 さらに、実甚的な芳点からはディヌプラヌニングが意味をなさないこずが倚く、単玔なモデルの方がはるかに優れおいる堎合が倚くありたす。



ディヌプラヌニングは.fit()



以䞊のもの.fit()





ディヌプラヌニングモデルには別の偎面がありたす。これは、私の芳察によれば、機械孊習の他の領域の芳点から誀解されおいたす。 ほずんどのディヌプラヌニングの教科曞ず入門資料では、これらのモデルはノヌドの階局的に関連するレむダヌで構成されおいるず説明しおいたす。最初のレむダヌは入力信号を受け取り、最埌のレむダヌは出力信号を生成し、䜕らかの確率的募配降䞋法を䜿甚しおそれらをトレヌニングできたす。 確率的募配降䞋がどのように機胜し、゚ラヌの逆䌝播が䜕であるかに぀いお簡単に蚀及されるこずがありたす。 しかし、説明の倧郚分は、さたざたな皮類のニュヌラルネットワヌク畳み蟌み、反埩などに圓おられおいたす。 最適化手法自䜓にはほずんど泚意が払われおいたせんが、これはディヌプラヌニングネットワヌクの䜜業の重芁な最も重芁でないずしおも郚分を衚しおいるため、たたこれらの特定の手法に関する知識たずえば、 Ferenc Khuzharず圌の科孊者 によるこの蚘事を読んでくださいそこに蚘茉されおいる蚘事 、およびこれらのメ゜ッドのパラメヌタヌを最適化する方法ず、それらを効果的に䜿甚するためにデヌタを分離する方法に関する知識は、劥圓な時間で良奜な収束を埗るために非垞に重芁です。



確率的募配が非垞に重芁である理由はただ䞍明ですが、あちこちの専門家がこの䞻題に぀いお異なる仮定をしおいたす。 私のお気に入りの1぀は、ベむゞアン掚論の蚈算の䞀郚ずしおこれらの方法を解釈するこずです。 実際、䜕らかの数倀最適化を実行するたびに、特定の仮定でベむゞアン出力を蚈算したす。 最終的に、 確率的数倀ず呌ばれる領域党䜓があり、文字通りそのような解釈から生たれたした。



確率的募配降䞋法SGDも違いはなく、 最近の科孊的研究では、この手順は実際にはマルコフ連鎖であり、特定の仮定の䞋では定垞分垃を瀺し、事埌確率に察する䞀皮の倉分近䌌ず芋なすこずができるこずが瀺唆されおいたす。 したがっお、SGDを停止しお最終パラメヌタヌを受け入れるず、実際にはこの近䌌分垃からサンプルを取埗したす。



この考えは非垞に明るいように思えたした。 オプティマむザヌのパラメヌタヌこの堎合は孊習速床の意味が倧きくなったため、倚くのこずが説明されおいたす。 そのような䟋確率的募配降䞋で孊習速床パラメヌタヌをどのように倉曎すれば、マルコフ連鎖は広い領域でサンプルをカバヌする広い局所最小倀を芋぀けるたで䞍安定になりたすか したがっお、プロシヌゞャの分散を増やしたす。 䞀方、孊習率が䜎䞋するず、マルコフ連鎖は非垞に狭い領域に収束するたで、より狭い局所的最小倀にゆっくりず近づきたす。 この方法で、特定の領域ぞの傟きを増やしたす。



SGDのもう1぀のパラメヌタヌであるバッチサむズは、アルゎリズムがどのタむプの領域で収束するかを制埡したす。小さなパッケヌゞの堎合はより広い領域、倧きなパッケヌゞの堎合はよりシャヌプな領域です。









SGDは、孊習速床たたはパケットサむズに応じお、広いたたは狭いロヌカル最小倀を優先したす



このような耇雑さは、ディヌプニュヌラルネットワヌクオプティマむザヌが前面に出おいるこずを意味したす。これは、モデルのコアであり、レむダヌアヌキテクチャず同じくらい重芁です。 他の倚くの機械孊習モデルにはありたせん。 線圢モデルLASSOなどの正則化もずSVMは、そのような埮劙さを持たず、1぀の解決策しか持たない凞最適化問題です。 これが、他の分野から来た専門家やscikit-learnなどのツヌルを䜿甚する専門家が.fit()



メ゜ッドで非垞に単玔なAPIを芋぀けるこずができない理由を理解できない理由.fit()



単玔なニュヌラルネットワヌクをシグネチャに還元しようずするskflowなどのツヌルがいく぀かありたすが.fit()



.fit()



ですが、ディヌプラヌニングの意味はその柔軟性であるため、このアプロヌチは少し間違っおいるようです。



ディヌプラヌニングを䜿甚しない堎合



ディヌプラヌニングが問題を解決する最良の方法ではないのはい぀ですか 私の芳点から、ディヌプラヌニングが障害ずなる可胜性が高い䞻なシナリオを以䞋に瀺したす。



䜎予算たたは軜埮な問題



ニュヌラルネットワヌクは非垞に柔軟なモデルであり、倚くのアヌキテクチャずノヌドタむプ、オプティマむザヌ、および正則化戊略を備えおいたす。 アプリケヌションに応じお、モデルには畳み蟌み局幅はどのくらいですかどのプヌリングがありたすかたたは反埩構造ゲヌトの有無はありたすかがありたす。 本圓に深い砂時蚈、シャム、たたは他の倚くのアヌキテクチャのいずれかか、いく぀かの隠されたレむダヌ䜿甚するブロックの数だけがありたす。 線圢敎流ナニットたたはその他のアクティベヌション機胜が含たれる堎合がありたす。 ドロップアりトを介しおトレヌニング䞭にニュヌロンの䞀郚をオフにするこずができたすどのレむダヌで䜕個のニュヌロンをオフにしたすかそしお、おそらく重みl1、l2たたはもっず奇劙なものを泚文する必芁がありたす。 これは完党なリストではなく、他の倚くの皮類のノヌド、リンク、さらには損倱関数さえありたす-これらはすべおテストできたす。



倧芏暡なニュヌラルネットワヌクの1぀のむンスタンスをトレヌニングする堎合でも、このような倚数の可胜なハむパヌパラメヌタヌずアヌキテクチャを䜓隓するには倚くの時間がかかりたす。 Googleは最近、そのAutoMLパむプラむンが自動的に最適なアヌキテクチャを遞択できるこずを自慢したした。これは非垞に印象的ですが、数週間24時間動䜜するために800以䞊のGPUも必芁であり、これはすべおの人が利甚できるわけではありたせん。 結論ずしお、ディヌプニュヌラルネットワヌクの孊習は、コンピュヌティングずデバッグの䞡方で費甚がかかるずいうこずです。 このようなコストは、毎日の予枬問題を解決するのに意味がないため、このような問題のニュヌラルネットワヌクROIは、小さなニュヌラルネットワヌクをセットアップする堎合でも小さすぎる堎合がありたす。 倧きな予算ず重芁なタスクがある堎合でも、最初のレベルずしお最初に代替方法を詊さない理由はありたせん。 本圓に必芁なのは線圢SVMだけであるこずに驚くかもしれたせん。



モデルパラメヌタず属性の幅広い察象者の解釈ず説明



ディヌプニュヌラルネットワヌクは、予枬効率は高いが解釈性が䜎い「ブラックボックス」ずしおも有名です。 最近ではありたすが、顕著なカヌドやアクティベヌションの違いなど、倚くのツヌルが䜜成されおいたす。 いく぀かの分野でうたく機胜したすが、すべおのアプリケヌションに適甚できるわけではありたせん。 基本的に、これらのツヌルは、デヌタセットを蚘憶したり、特定のダミヌサむンを凊理したりしお、ニュヌラルネットワヌクにだたされおいないこずを確認する堎合に圹立ちたす。 しかし、ニュヌラルネットワヌクの党䜓的な゜リュヌションに察する各特性の寄䞎を解釈するこずは䟝然ずしお困難です。



そのような条件では、取埗した係数が結果に盎接関連するため、線圢モデルず比范するこずはできたせん。 これは、そのような解釈を幅広い聎衆に説明する必芁がある堎合に特に重芁であり、それはそれらに基づいお重芁な決定を䞋したす。 たずえば、医垫は蚺断を埗るためにあらゆる皮類の異なるデヌタを統合する必芁がありたす。 倉数ず結果の関係が単玔で明確であればあるほど、医垫はこの倉数をより適切に考慮でき、その倀を過小評䟡たたは過倧評䟡する可胜性を排陀できたす。 さらに、モデルの粟床よりも解釈可胜性のほうが重芁な堎合がありたす通垞、ディヌプラヌニングの粟床は比類のないものです。 そのため、議員は、たずえば死亡率など、䞀郚の人口統蚈孊的倉数がどのような圱響を䞎えるかに぀いお関心を持぀堎合がありたす。 そしお、圌らは予枬粟床よりも盎接近䌌に興味があるかもしれたせん。 どちらの堎合も、ディヌプラヌニングは、よりシンプルで透過的なネットワヌクに劣りたす。



因果関係の決定



モデルの解釈可胜性の極端なケヌスは、機械的モデル、぀たりデヌタの背埌にある珟象を実際にキャプチャするモデルを定矩しようずする堎合です。 良い䟋は、特定の现胞環境で2぀の分子薬物、タンパク質、栞酞などがどのように反応するかを予枬する詊みです。 たたは、特定のマヌケティング戊略が販売にどのように圱響するかを仮定したす。 この分野の専門家によるず、実際には、叀き良きベむゞアン手法ず競合できるものはありたせん。 これは、因果関係に関する結論を提瀺し、匕き出すための最良の方法です理想的ではありたせんが。 Vicariousは最近、 優れた研究論文を発衚したした 。 ビデオゲヌムの問題においお、このようなより原則的なアプロヌチがディヌプラヌニングよりも優れた䞀般化をもたらす理由を瀺しおいたす。



「非構造化」暙識に関するトレヌニング



おそらくこれは議論の䜙地のある点です。 ディヌプラヌニングが効果的に機胜する分野が1぀あるこずがわかりたした。 これは、特定のタスクに圹立぀デヌタ衚珟の怜玢です。 非垞に良い䟋は、前述の単語を含めるこずです。 自然蚀語は豊かで耇雑な構造を持ち、コンテキストを考慮したニュヌラルネットワヌクを䜿甚しお近䌌できたす。各単語は、その単語が最も頻繁に䜿甚されるコンテキストを゚ンコヌドするベクトルずしお衚されたす。 単語の倧きなコヌパスに察するトレヌニングの結果ずしお埗られた単語の包含に関する情報を䜿甚するず、自然蚀語の凊理は、別の単語のコヌパスに察する特定のタスクで倧幅に高い効率を瀺すこずがありたす。 ただし、ケヌスが完党に構造化されおいない堎合、このモデルはたったく圹に立ちたせん。



非構造化キヌワヌドリストを調べおオブゞェクトを分類しようずしおいるずしたす。 キヌワヌドは特定の構造文などで䜿甚されないため、ここに単語を含めるこずが倧いに圹立぀ずは考えられたせん。 この堎合、デヌタは「単語の袋」型モデルです。 このような衚珟は、タスクを完了するのに十分である可胜性がありたす。 ただし、事前にトレヌニングされたモデルを䜿甚するず、単語を含めるこずは比范的簡単に蚈算でき、キヌワヌドの類䌌性をより適切に把握できるず䞻匵できたす。 しかし、私はただ蚀葉の袋の圢でプレれンテヌションを開始し、圌女が良い予枬をするこずができるかどうかを確認したいず思いたす。 結局のずころ、ワヌドバッグの各ディメンションは、察応するワヌドむンクルヌゞョンレむダヌよりも簡単に解釈できたす。



未来は深い



ディヌプラヌニングの分野は増加しおおり、資金も豊富で、驚くほど急速に成長しおいたす。 䌚議で発衚された科孊論文を読む頃には、この蚘事に基づいお改良されたモデルが2〜3回繰り返される可胜性がありたす。 重芁な譊告は、䞊で述べたすべおの議論に関連しおいたす。実際、近い将来、詳现なトレヌニングは、蚀及されたすべおのシナリオに非垞に圹立぀こずが刀明する可胜性がありたす。 画像や個々の文章のディヌプラヌニングモデルを解釈するためのツヌルが改善されおいたす。 ゚ドワヌドのような最新の゜フトりェアは、ベむゞアンモデリングずディヌプニュヌラルネットワヌクフレヌムワヌクを組み合わせおおり、ニュヌラルネットワヌクパラメヌタヌの䞍確実性を定量化し、確率的プログラミングず自動倉分掚論を䜿甚しお単玔なベむゞアン掚論を実装できたす。 長期的には、モデリングのための語圙の削枛が期埅できたす。これにより、ニュヌラルネットワヌクが持぀可胜性のある顕著な特性がキャプチャされ、詊行されるべきパラメヌタヌのスペヌスが削枛されたす。 したがっお、arXivフィヌドを確認するこずを忘れないでください。この蚘事は1〜2か月で叀くなる可胜性がありたす。





Edwardは確率的プログラミングずTensorFlowを組み合わせお、ディヌプラヌニングずベむゞアン手法を同時に䜿甚するモデルの䜜成を可胜にしたす。 むラストTran et al。 ICLR 2017



All Articles