ベむゞアンニュヌラルネットワヌク-今オレンゞパヌト2

オレンゞにもっずあるず思いたす-皮、たたはうヌん、オレンゞ







可胜であれば、キッチンに行き、オレンゞを取り、皮をむいお確認するこずをお勧めしたす。 怠か手元にない堎合-私たちは退屈な数孊を䜿甚したす私たちは孊校からのボヌルの量を芚えおいたす。 皮の厚さが等しいずしたしょう 半埄から 、 ; 䞀方から他方を匕き、皮の䜓積をオレンゞの䜓積で割るず...皮が玄16であるこずがわかりたす。 ちなみに、それほどではありたせん。



1000次元の空間にあるオレンゞはどうですか



今回はキッチンに行きたすが動䜜したせん。 誰もが匏を暗蚘しおいるわけではないず思うが、 りィキペディアは私たちを助けおくれる。 同様の蚈算を繰り返したすが、興味深いこずに次のこずがわかりたす。





぀たり、いかに奇劙で矛盟しおいるように芋えおも、ハむパヌ゚ペルシンのほが党䜓が、その衚面のすぐ䞋のごくわずかな薄い局に含たれおいたす。



おそらくこれから始めたしょう。







あらすじ



これは、 ポストの 2番目の郚分であり、その前に、メむングラヌルモデルパラメヌタヌの事埌確率を芋぀けるこずに焊点を圓おおいたした。 念のため、ここにありたす。 。 もう䞀床思い出しおください モデルパラメヌタヌたずえば、ニュヌラルネットワヌクの重み、および -デヌタセットからのデヌタ衚蚘を少し倉曎し、代わりに以前の だった しかし、埌でシヌタが必芁です。



だから、オレンゞはそれだけです。 この埌郚の寞法は、ハむパヌ゚ペルシンの量ず同じ驚くべき速床で成長しおいたす。 パラメヌタが倚いほど、分垃は「倧きく」なりたす。 実際には、オレンゞでさえ想像しない方が良いでしょう。山を想像しおみたしょう。 千次元で。 はい、私はこれが少し矛盟しおいるこずを知っおいたすが、ここでは山がありたす









これは本圓に䞀次元です。 ヒントンの蚌蚀によるず、このような千次元の山を想像するこずができたす。䞊の写真を芋お、「千」ず蚀っおください-たたはいく぀必芁になるでしょうか



私たちの課題は、この山の䜓積を調べるこずです。 そうするこずで、我々は

-私たちはそれがどんな圢なのかわかりたせんたぶん

-今のずころ枬定方法は1぀だけです-ある地点に立っお、足たでの高さを蚈算できたすこの地点にいる確率

-山の衚面は、成長するず指数関数的に成長したす -ハむパヌ゚ペルシンの皮膚が成長する方法ず同様



蚈画は䜕ですか



蚈画1サンプリング













䞀般的に、 各ポむントで盎接山を枬定する必芁はありたせん。 山のいく぀かのランダムなセクションを遞択し、枬定を行い、その結果の抂芁を説明できたす。 それはそれほど正確ではありたせんが、より少ない枬定を行う必芁がありたす。

これは、それ自䜓が懇願する思考であるこずにすぐに気付くこずができたすが、倚次元の山が次元数の増加ずずもに成長し始めたずき、それはあたり圹に立ちたせん。 山の衚面は、<次元の数>の皋床の<1぀の次元の倀の数>に等しいこずを思い出しおください。 サンプリングは次数の基瀎を枛らすのに圹立ちたすが、指数はどこにも行かず、問題は指数関数のたたです。



蚈画2近䌌



山を枬定する䞻な問題は、山が倧きいこずではありたせん枬定回数の点で-最埌に、Wikipediaの匏に埓っお、1000次元のオレンゞのボリュヌムをそれほど困難なく蚈算したした。 問題は、山の公匏がないこずです 。 山が成長する分析芏則はわかりたせんオレンゞずは異なり、すべおの方向に均等に成長したす。



さお、私たちが探しおいるものに䌌おいるが、今床は匏を䜿甚しお、独自の別の山を構築するずどうなりたすか このようなもの











たあ...実際に悪魔は圌を知っおいたす。 第䞀に、それはただあたり明確ではなく、近䌌は非垞に正確である可胜性がありたす-写真ではあたり良く芋えたせん。 第二に、これを行う方法がただわかりたせん。 さあ、始めたしょう。



ラプラス近䌌



もう䞀床、ベむズの定理を少しだけ異なる方法で描きたす。









分数の右偎にある2぀の確率の積を1぀にたずめたした。いわゆる結合確率そしお、もう䞀床、衚蚘をシヌタではなくwにわずかに倉曎したこずを思い出したす。 人々はしばしばこれを次の意味で芋る -「望たしい」配垃、および 結果を1に合蚈するために必芁な正芏化定数です。 䞀時的に怜玢に集䞭したしょう 。



テむラヌ玚数を思い出しおください 。 解析の最初のコヌスに埓っお、任意の関数が無限量の定矩された倚項匏に分解されたす。 関数を曞く どうやっお 、そしお私たちはある時点でレむアりトしたす 、これは最倧分垃ず䞀臎したすどこにあるかはわかりたせんが、これはただ重芁ではありたせん。 同時に、甚語の埌に2のべき乗で無限の量を切り捚おたす。









これは、Wikipediaからの1察1の盎接的な廃止されたテむラヌ拡匵です



今、私たちが遞んだこずを芚えおおいおください 最倧点ずしお、それはその䞭の埮分がれロに等しいこずを意味したす。 ぀たり、2番目の甚語は明確な良心をもっお捚おるこずができたす。 取埗したす









䜕にも䌌おいたせんか 実際、このこずはガりスの察数ず同じ圢をしおいたす。 これを芋るために、あなたは曞くこずができたす









衚蚘を少し倉曎しおみたしょう。 そしお今それをさせたす 。 それから 、そしお、所望の結合確率は、最倧点ず暙準偏差に䞭心があるガりスによっお近䌌できるこずがわかりたす 最倧点たたは曲率での逆二次導関数。



1぀のセクションにあいたいな文字が倚すぎる堎合は、3぀の短いパラグラフでアむデアを芁玄したす。 したがっお、山のボリュヌムを怜玢する堎合は、次のものが必芁です。

-最倧ポむントを芋぀ける

-その䞭の曲率を枬定したす二次導関数を蚈算したす;唯䞀の泚意に関する埮分 しかしではない 

-最倧点ず暙準偏差を䞭心ずする法線曲線を取りたす-曲率に負の反比䟋。



山のピヌクポむントを怜玢するこずができ、すべおを枬定するよりもはるかに簡単です。 実際、前回の投皿でごちゃごちゃにしたのず同じベむゞアン回垰に魔法をかけたしょう



最埌の投皿の最埌で最倧点を怜玢したした-これは、ベむゞアンバンドルの䞭心、「最もホットな線」などです。 念のため、もう䞀床芋぀ける方法を説明したすが、フォヌミュラで人々を怖がらせないように、スポむラヌの䞋に隠したす。



ネタバレ芋出し






ここで、argmaxの䞋の最初の郚分は尀床であり、2番目はガりス事前分垃です。 補品は、通垞のように察数をずっお量に倉換されたした。



の誘導䜓 分析的に数えるこずができたすが、私はひどいカりチポテトなので、私はそれをすべおPythonに入れお、aurogradに私のために仕事をさせたいです。



# b  w       ,      #       ext_w = np.hstack([b, w]) #      #     ,  ext_data.dot(ext_w) #  data.dot(w) + b ext_data = np.ones((data.shape[0], data.shape[1] + 1)) ext_data[:, 1:] = data #   log joint,      #        def log_joint(w): regression_value = ext_data.dot(w) return ( np.sum(-np.power(target - regression_value, 2.) / (2 * np.power(1., 2.))) + np.sum(-np.power(w, 2.) / (2 * np.power(1., 2.))) ) from autograd import elementwise_grad second_grad_log_joint = elementwise_grad(elementwise_grad(log_joint)) mu = ext_w sigma = -1. / second_grad_log_joint(ext_w) cov = np.diag(sigma) # ,      # some_value = multivariate_normal.pdf(some_point, mu, cov)...
      
      







ディストリビュヌションがある堎合、それを描くこずは技術的な問題です。 ポストの最埌の郚分ずほが同じ方法を少し倉曎しお䜿甚したす䞭心からの距離が異なるサンプル分垃。 こんな玠敵な写真が埗られたす











ずころで、ここのすべおの曲線は15次の倚項匏です。 昔の「匷匕な」ベむゞアン回垰は、数幎前からコンピュヌタヌ時代に戻っおいたしたどういうわけか、5床を絞りたした。



ラプラス近䌌はすべおの人に適しおいたす-高速、䟿利、矎しい-しかし、1぀悪い点がありたす。それは最倧点で掚定されたす。 それは山党䜓で刀断するようなもので、頂䞊から芋たものです-本圓に頂䞊にいるのか、それずも局所的な最倧倀に留たっおいるのかわからないずいう事実ず、そこからすべおが芋えるわけではないずいう事実にもかかわらず突然、すべおが非垞に平らで矎しい、その䞋に3キロメヌトルの断厖絶壁がありたすか 䞀般に、圌らはニュヌラルネットワヌクのためにそれを思い぀いた、あなたが掚枬するかもしれない、ラプラスの時ではなく、1991幎でさえ、それ以来、それは実際に䞖界に勝っおいない。 それでは、もっずファッショナブルで矎しいものを芋おみたしょう。



backpropによるベむズ開始



最埌に、DeepMindのタむトル蚘事からたさにその方法に到達したした。 著者は、backpropでBayesず呌んでいたす-ロシア語ぞの翻蚳で幞運を祈りたす。 逆ベむズ䌝搬



ここからの出発点はこれです。ある皮の近䌌があるず想像しおください これはシヌタ蚘号が䟿利な堎所です-これらは近䌌分垃パラメヌタになりたす、それを䜕らかの単玔な圢匏、たずえばガりス型にしたす。 秘trickは次のずおりです。元の山の近䌌倀からの「距離」の衚珟を曞き留め、この距離を最小化したす。 䞡方の量が確率分垃であるため、分垃を比范するために特別に考案されたものを結合したす カルバック・ラむブラヌ距離 。 実際、少し怖いように聞こえたすが、これだけです









積分を泚意深く芋るず、それが期埅のように芋えるこずが明らかになりたす-積分の䞋には、ある皮のものがあり、 、そしお積分が匕き継がれたす 。 その埌、次のように蚘述できたす。









さらに進んでください分母に 、そしお、ベむズの定理により、 。 䞊蚘の匏に入れお、期埅の䞋にあるこずに泚意しおください -に䟝存しない 、そしお私たちはそれを期埅から倖すこずができたす









これはずおもクヌルなこずでした。 あなたが忘れおいないなら、この党䜓は近䌌倀ず私たちの山の差に等しいからです。 ここで管理されるパラメヌタヌは 、そしお差が最小になるように調敎したいず思いたす。 したがっお、この最小化のプロセスでは、心配する必芁はありたせん。

-それはに䟝存しないため 。 ちなみに、これは埌郚の䞻な問題芁玠でした-蚈算するためには、山のすべおのポむントを回っお、それらをたずめる必芁がありたしたなぜなら 、すべおの量 、他の方法で入手するこずはできたせん。



しかし、先に進みたす。 残っおいるものの最小倀を芋぀けるこずに関心がありたす。









通垞、どのように䜎倀を探したすか さお、導関数を取り、募配降䞋を行いたす。 このゎミから掟生物を取埗する方法はありたすか 今のずころあたり良くないこずがありたす。



backpropによるベむズ続き



ここに私が盎感的に入力するこずができなかった郚分が来るので、歯を磚いお数孊に埓う必芁がありたす。 導関数を取埗できる郚分は、再パラメヌタヌ化トリックず呌ばれ、次の手順で構成されたす。



  1. ランダム倉数を取ったずしたしょう 。 圌女に぀いおは䜕も知らない 。 これが圌女の財産であり、これたでのずころ圌女に関するすべおです。
  2. 䞀般的に蚀えば、期埅の導関数は芋かけほどひどいものではありたせん。それは単に積分の導関数、぀たり倧たかに蚀っお、合蚈が終わった合蚈の導関数です 。 それ自䜓は恐ろしくありたせんが、退屈です。「無限に成長するすべおのポむントをたずめる」ずいう問題に再び戻るからです。 「。 䞀般的な甚語で、期埅の䞋で䜕らかの機胜を想像しおみたしょう 、デリバティブを蚘述したす。










私たちは特別なこずは䜕もしたせんでした-りィキペディアからの定矩によっお期埅を開き、それを䞍可欠なものずしお再び曞き留めたした。 でもね 最埌に 私たちはちょうどそれが等しいず蚀った 。 そしお...









今、積分はむプシロン䞊で行われたす。぀たり、埮分を

積分の笊号の䞋で。









ここに、再パラメヌタ化のトリックがありたす。期埅の導関数があり、それが導関数の期埅になりたした。 かっこいい もしあなたがただゆっくりず私の指のガむドに埓っおいるなら、あなたはあたりクヌルではなく、おそらく䜕が倉わったのかさえ明確ではないでしょう-私たちは1぀のFIGを統合する必芁がありたす 私たちは䜕を達成したしたか



䞀番䞋の行は、いく぀かの点サンプルでこの積分を近䌌できるこずです。 そしお、圌らができなかった前に。 以前は、デリバティブは党額から取埗する必芁がありたした。たず、䞀連のポむントをたずめおから、それを区別したす。コレクション内の䞍正確さは、差別化する際に、はるかに間違った方向に私たちを導く可胜性がありたす。 そしお今、私たちは点で区別し、結果を芁玄するこずができたす-したがっお、郚分的な合蚈でかなりできたす。



近䌌掚論の䞖界におけるこのような厳しい順序は次のずおりです。ここでは、事埌分垃自䜓でなく、 導関数を蚈算するための近䌌が必芁です。 たあ、䜕も、私たちはほずんどそこにありたす。



backpropによるベむズアルゎリズム



これたでのずころ、私たちはに属しおいる 抜象的な「パラメヌタ」ずしおそれらを明確にする時が来たした。 近䌌させお ガりスになりたすそしお想像しおください 圢で -平均倀、および -暙準偏差。 たた、決定する必芁がありたす -れロず暙準偏差1を䞭心ずするガりス確率倉数にしたしょう。 。 次に、再パラメヌタヌ化の条件が満たされるように、









 ここでは、芁玠ごずの乗算を意味したす。 しかし、私にずっおは、なぜ同時に もし誰かが自分の指のコメントで説明できるなら-私は非垞に感謝したす、しかし私たちは信仰に関する蚘事のこの郚分を取りたす。



党䜓ずしお、逆分垃は次の手順で構成されたす。



  1. ランダムで開始 そしお 各ニュヌラルネットワヌクの重みたたは回垰係数
  2. 少しサンプル から
  3. 私たちはそれから埗る

  4. 「真の山」ず近䌌間の距離の関数を思い出したす。 か぀お しかし、良い意味でそれ 。 ずにかく䞋に曞きたす 、それは簡単です芚えおおいおください 
  5. に぀いおの埮分を考慮する 。 次のようになりたす。









    プラスはどこですか 2぀の倉数の関数であり、䞡方が䟝存したす 

  6. に぀いおの埮分を考慮する 







  7. 掟生物がありたす-それは比hat的に垜子をかぶっおいたす。 さらに叀き良き募配降䞋法











すべおの結果



あなたのこずは知りたせんが、この黒ず黄色のビヌムにはもううんざりしおいるので、この必須の段階をスキップしお、ニュヌラルネットワヌクのようなこずをしたしょう。 元の蚘事の著者は、畳み蟌みネットワヌクを䜿甚するなどの远加の歪みなしに、MNIST数字で玠晎らしい結果を埗たした-それらに到達しおみたしょう。 そしおおそらく、かなりの自動卒業生を脇に眮き、テアノのようなもっず重いもので歊装する時が来たのでしょう。 その埌、Theano固有のコヌドが少しあるので、それをナビゲヌトしない堎合は、自由にめくりたす。



デヌタを取埗したす。



 from sklearn.datasets import fetch_mldata from sklearn.cross_validation import train_test_split from sklearn import preprocessing import numpy as np mnist = fetch_mldata('MNIST original') N = 5000 data = np.float32(mnist.data[:]) / 255. idx = np.random.choice(data.shape[0], N) data = data[idx] target = np.int32(mnist.target[idx]).reshape(N, 1) train_idx, test_idx = train_test_split(np.array(range(N)), test_size=0.05) train_data, test_data = data[train_idx], data[test_idx] train_target, test_target = target[train_idx], target[test_idx] train_target = np.float32(preprocessing.OneHotEncoder(sparse=False).fit_transform(train_target))
      
      





パラメヌタヌを宣蚀したす。 ここでは、蚘事に蚘茉されおいる小さなトリックを適甚したすが、私は故意に䌝えたせんでした。 問題はこれです。各ネットワヌクの重みに察しお、muずsigmaの2぀のパラメヌタヌがありたす。 sigmaは垞にれロよりも倧きくなければならないずいう事実で、小さな問題が発生する堎合がありたすこれはガりスの暙準偏差であり、定矩によっお負になるこずはできたせん。 たず、どのように初期化するのですか さお、0に非垞に近い倀0.0001などから1たでの乱数を䜿甚できたす。 第二に、れロ以䞋の募配降䞋䞭に停止したせんか おそらく、そうすべきではありたせんが、あらゆる皮類の算術的な䞍正確さのために、小数点はそうかもしれたせん。 䞀般的に、著者はこれを゚レガントに解決するこずを提案したした-シグマをシグマの察数に眮き換え、重みの公匏を適切に修正したす







なぜここで+1察数の䞋にあるのでしょうか明らかに、同じ目的で-誀っお察数をれロから取らないように。



ああ、たあ、私たちはい぀もスケヌルに぀いお話したした しかし、ニュヌラルネットワヌクでは、倚くの堎合、独自の呜名法-れロりェむト、 そこに呌ばれた バむアス。 私たちは契玄に違反したせん。 だから



 def init(shape): return np.asarray( np.random.normal(0, 0.05, size=shape), dtype=theano.config.floatX ) n_input = train_data.shape[1] # L1 n_hidden_1 = 200 W1_mu = theano.shared(value=init((n_input, n_hidden_1))) W1_logsigma = theano.shared(value=init((n_input, n_hidden_1))) b1_mu = theano.shared(value=init((n_hidden_1,))) b1_logsigma = theano.shared(value=init((n_hidden_1,))) # L2 n_hidden_2 = 200 W2_mu = theano.shared(value=init((n_hidden_1, n_hidden_2))) W2_logsigma = theano.shared(value=init((n_hidden_1, n_hidden_2))) b2_mu = theano.shared(value=init((n_hidden_2,))) b2_logsigma = theano.shared(value=init((n_hidden_2,))) # L3 n_output = 10 W3_mu = theano.shared(value=init((n_hidden_2, n_output))) W3_logsigma = theano.shared(value=init((n_hidden_2, n_output))) b3_mu = theano.shared(value=init((n_output,))) b3_logsigma = theano.shared(value=init((n_output,)))
      
      





このログシグマは、どういうわけか正芏分垃匏にプッシュできる必芁があるため、独自の関数を䜜成したす。 同時に、通垞のものを宣蚀したす



 def log_gaussian(x, mu, sigma): return -0.5 * np.log(2 * np.pi) - T.log(T.abs_(sigma)) - (x - mu) ** 2 / (2 * sigma ** 2) def log_gaussian_logsigma(x, mu, logsigma): return -0.5 * np.log(2 * np.pi) - logsigma / 2. - (x - mu) ** 2 / (2. * T.exp(logsigma))
      
      





確率を評䟡するずきです。 以前に収集したように、サンプリングによっおこれを行いたす。぀たり、ルヌプでスピンし、反埩ごずにランダムに初期化するむプシロンを取埗し、それを重みに倉換しお組み合わせたす。 䞀般に、Theanoにはルヌプのスキャンがありたすが、1ナヌザヌの脳を可胜な限り砎壊するこずを目的に、man探究者のチヌムによっお明確に開発されたした。2少数の反埩で、通垞のルヌプが機胜したす。 合蚈



 n_samples = 10 log_pw, log_qw, log_likelihood = 0., 0., 0. for _ in xrange(n_samples): epsilon_w1 = get_random((n_input, n_hidden_1), avg=0., std=sigma_prior) epsilon_b1 = get_random((n_hidden_1,), avg=0., std=sigma_prior) W1 = W1_mu + T.log(1. + T.exp(W1_logsigma)) * epsilon_w1 b1 = b1_mu + T.log(1. + T.exp(b1_logsigma)) * epsilon_b1 epsilon_w2 = get_random((n_hidden_1, n_hidden_2), avg=0., std=sigma_prior) epsilon_b2 = get_random((n_hidden_2,), avg=0., std=sigma_prior) W2 = W2_mu + T.log(1. + T.exp(W2_logsigma)) * epsilon_w2 b2 = b2_mu + T.log(1. + T.exp(b2_logsigma)) * epsilon_b2 epsilon_w3 = get_random((n_hidden_2, n_output), avg=0., std=sigma_prior) epsilon_b3 = get_random((n_output,), avg=0., std=sigma_prior) W3 = W3_mu + T.log(1. + T.exp(W3_logsigma)) * epsilon_w3 b3 = b3_mu + T.log(1. + T.exp(b3_logsigma)) * epsilon_b3 a1 = nonlinearity(T.dot(x, W1) + b1) a2 = nonlinearity(T.dot(a1, W2) + b2) h = T.nnet.softmax(nonlinearity(T.dot(a2, W3) + b3)) sample_log_pw, sample_log_qw, sample_log_likelihood = 0., 0., 0. for W, b, W_mu, W_logsigma, b_mu, b_logsigma in [(W1, b1, W1_mu, W1_logsigma, b1_mu, b1_logsigma), (W2, b2, W2_mu, W2_logsigma, b2_mu, b2_logsigma), (W3, b3, W3_mu, W3_logsigma, b3_mu, b3_logsigma)]: # first weight prior log_pw += log_gaussian(W, 0., sigma_prior).sum() log_pw += log_gaussian(b, 0., sigma_prior).sum() # then approximation log_qw += log_gaussian_logsigma(W, W_mu, W_logsigma * 2).sum() log_qw += log_gaussian_logsigma(b, b_mu, b_logsigma * 2).sum() # then the likelihood log_likelihood += log_gaussian(y, h, sigma_prior).sum() log_qw /= n_samples log_pw /= n_samples log_likelihood /= n_samples
      
      





ふう。 今、私たちは目的を集めたす。 蚘事のこの堎所のどこかで2週間䌑止する必芁がありたす。これは、蚘事で提案されおいる目暙(log_qw - log_pw - log_likelihood / M).sum()



ようなものが機胜しなかったため、悪い結果。 それからある時点で、私はこの蚘事を最埌たで読むこずにし、著者はミニバッチを䜿っお特定の方法で目暙を平均化するこずを勧めおいるこずに気付きたした。 より正確には、このようにでも



 objective = ((1. / n_batches) * (log_qw - log_pw) - log_likelihood).sum() / batch_size
      
      





同時に、圌らは通垞の募配降䞋の代わりにAdamオプティマむザヌを䜿甚するこずを勧めたした。 私は人生で䜿ったこずがないので、自分で曞いお既補のものを䜿う誘惑に抵抗したす。



 from lasagne.updates import adam all_params = [ W1_mu, W1_logsigma, b1_mu, b1_logsigma, W2_mu, W2_logsigma, b2_mu, b2_logsigma, W3_mu, W3_logsigma, b3_mu, b3_logsigma ] updates = adam(objective, all_params, learning_rate=0.001)
      
      





さお、それからすべおが暙準です-列車機胜ず盎接勉匷に行きたす。 すべおのコヌドはここにありたす 。 非垞に高いパヌセント粟床はそこでは機胜したせんが、本圓ですが、それもパンです。



゚ポック0コスト6.83701634889粟床0.764
゚ポック1コスト-73.3193287832粟床0.876
゚ポック2コスト-89.2973277879粟床0.9
゚ポック3コスト-95.9793596695粟床0.924
゚ポック4コスト-100.416764595粟床0.924
゚ポック5コスト-104.000705026粟床0.928
゚ポック6コスト-107.166556952粟床0.936
゚ポック7コスト-110.469004896粟床0.928
゚ポック8コスト-112.143595876粟床0.94
゚ポック9コスト-113.680839646粟床0.948




ガりス近䌌からより耇雑なものに移行する方法、たたは匷化孊習でこの方法を䜿甚する方法最埌に、これがDeepMindですがただあるので、 念のために、蚘事ぞのリンクを残しおおきたす終了。



QA



  1. 「倉動」ずいう蚀葉は、蚘事のどこでも䞀般的に䜿甚されおいたすが、投皿ではそれに぀いお䜕も蚀われおいたせん。



    ここで、恥ずかしいこずに、私はただ恥ずかしかったです。孊校では、バリ゚ヌションの蚈算法を持っおいなかったので、特に銎染みのない甚語を䜿うこずには少し譊戒しおいたした。 しかし、䞀般的にははい、 倉分ベむズ法のセクションで䞀般的なアプロヌチに぀いお読むこずができたす。 指では、私が理解しおいるように、名前の意味はこれですバリ゚ヌションの蚈算は、数字を䜿甚した通垞の分析ず同じように関数で機胜したす。 ぀たり、孊校で関数の最小倀が達成されたポむントを探したずころで、ここで関数を探しおいたす  、たずえば、KLの発散を最小化したす。
  2. 最埌の投皿で質問がありたした-しかし、 ドロップアりトは䞀般的にそれず䜕の関係がありたすか、それは䜕らかの圢でこのすべおのビゞネスに関連しおいたすか



    そのように。 ドロップアりトは、ベむゞアン䞻矩の安䟡なバヌゞョンず考えるこずができたす。これは非垞に単玔です。 このアむデアは、前回の投皿の最埌で蚀及したアンサンブルず同じアナロゞヌに基づいおいたすニュヌラルネットワヌクがあるず想像しおください。 今、あなたがそれを取り、誀っおいく぀かのニュヌロンを匕き剥がし、脇に眮いたず想像しおください。 このような操䜜を玄1000回実行するず、数千のネットワヌクのアンサンブルが埗られたす。各ネットワヌクは、互いにランダムにわずかに異なりたす。 それらの予枬を平均するず、堎所のランダムな偏差が互いに打ち消し合い、実際の予枬が埗られるこずがわかりたす。 ここで、ベむゞアンネットワヌクがあり、その重みのセットを䞍確実性から数千回取り出し、わずかに異なるネットワヌクの同じアンサンブルを取埗するずしたす。



    ベむゞアンアプロヌチよりも急です-このランダム性を制埡された方法で䜿甚できたす。 もう䞀床写真を芋おください







    ここの各重みはランダム倉数ですが、これらの事故は異なりたす。 ガりシアンのピヌクはどこかで巊に匷くシフトし、どこかで右にシフトし、どこかで䞭倮にあり、倧きな分散を持っおいたす。 おそらく、トレヌニングの結果ずしお、各重みは、ネットワヌクがそのタスクを実行するのに最適なフォヌムを取埗したす。 ぀たり、たずえば非垞に重芁な重みがある堎合、それは厳密に等しくなければなりたせん。そうしないず、ネットワヌク党䜓が砎損し、重みをサンプリングするずきに、このニュヌロンがそのたた残る可胜性が高くなりたす。 ドロップアりトの堎合、りェむトを均等にランダムにオフにするだけで、この重芁なりェむトを簡単に匷打できたす。 ドロップアりトは、その「重芁性」に぀いお䜕も知りたせん。圌にずっお、すべおの重みは同じです。 実際には、これは、Dimpindネットワヌクがドロップアりトのあるネットワヌクよりも良い結果をもたらすずいう事実で衚されおいたすが、それほどではありたせん。



    ドロップアりトクヌラヌが優れおいるのは、もちろん非垞にシンプルだからです。
  3. 䞀䜓䜕しおるの おそらく、ニュヌラルネットワヌクは、頭の䞭のギズモのむメヌゞず肖像に組み蟌たれるべきです。 明らかにガりスの重みはありたせんが、マシンオペレヌタであるあなたが完党に無芖しおいるこず時間係数、離散亀連、その他の生物孊がたくさんありたす。 あなたの教科曞を捚おお悔い改めよう



    私がニュヌラルネットワヌクに぀いお考えたいのは、この歎史的な連鎖を含む良い方法です。



    • ある時点で、人々は、䞀般に䞖界のすべおの思考ずプロセスが「原因効果」の連鎖に沿っお組織化できるず考えたした。 䜕かが起こった埌、䜕か他のこずが起こりたした。そしお、これが䞀緒になっお第䞉の䜕かに圱響を䞎えたした。
    • 圌らは通垞のベむゞアンネットワヌクのようなシンボリックモデルを構築し始め䞻題ず混同しないように、そのようなモデルはあらゆる皮類の異なる質問に答えるこずができるこずに気付きたした"そしお、答えはかなり良いです。
    • しかし、そのようなモデルでは、すべおの倉数を手で動かす必芁がありたした。 ある時点で、 コネクショニズムがやっお来お、次のように蚀いたした。ランダム倉数の束を䜜成し、それらをすべおバむンドしおから、䜕らかの方法でこのモデルをトレヌニングしお、正垞に機胜するようにしたす。


    そしお、ニュヌラルネットワヌクも含めお刀明したした。 圌らは本圓に私たちの頭の䞭の濡れた生物孊的ネットのようであっおはなりたせん 。 それらは、自分自身のどこかで互いにくっ぀いおいるニュヌロンの圢で、原因ず結果の正しい組み合わせを埗るために䜜られおいたす。 内郚の各ニュヌロンは朜圚的な「芁因」であり、䜕らかの原因ずなる䜕らかの倉数であり、ベむゞアンマゞックはこれらの芁因をより有甚にするのに圹立ちたす。



    各ニュヌロンは頭の䞭で䜕をしたすか はい、地獄は知っおいたす。 特別なものはないかもしれたせん。
  4. このトピックには他に䜕がありたすか



    ああ、たくさんのこず



    • バリ゚ヌションオヌト゚ンコヌダヌ -私の意芋では、ほずんどの最も人気のあるモデルであり、良い意味で、私はそれから始めなければなりたせんでしたが、私はこれが本圓に奜きでした。
    • 実際、機械孊習の歎史をもう少し詳しく芋おみるず、各鉄から倉分近䌌が突き出おいたす。 ディヌプボルツマンマシン 特にどこでも䜿甚されおいないようですが、それは実珟しおいるように芋えたす、たたぱラヌの逆䌝播の蚀語でボルツマンマシンをリメむクするNADEず呌ばれるものです。
    • 倉則的なブラックボックス -投皿を远加するだけで぀たずいたので、それが䜕であるかさえ知りたせんが、私はすでに玹介の名前ず玄束が奜きです。
    • DRAW 。これはどうしおも埗られないもので、驚くほどに芋えたす。鉛筆のように数字を描くこずができるアテンションメカニズムを備えたリカレントネットワヌクです。
    • 教垫あり孊習ず教垫なし孊習を組み合わせたラダヌネットワヌクず呌ばれるもの





All Articles