2017幎の自然蚀語凊理の䞻な成果

みなさんこんにちは。 芖聎者をすぐに2぀の郚分に分けたす。ビデオを芋るのが奜きな人ず、私のようにテキストをよりよく知芚する人です。 最初を苊しめないために、Data-Treeでの私のスピヌチの蚘録









すべおの䞻芁なポむントがありたすが、プレれンテヌション圢匏は蚘事の詳现な調査を意味したせん。 リンクず詳现な分析の愛奜家、猫ぞようこそ。







最埌に、この堎所を読んだ人は、以䞋で曞かれたものはすべお法廷で圌らに察しお䜿甚できるこずを知るこずができるのは私の芋解であり、他の人の芖点は私のものずは異なる堎合がありたす。







トレンド



2017幎、私たちの分野自然蚀語凊理、NLPの開発で、2぀の䞻な傟向を挙げたした。









次に、今幎の䞻芁なアむデアをより詳现に分析したす。







必芁なのは泚意だけです



画像

このすでによく知られおいる䜜業により、完党に接続されたネットワヌクがNLPドメむンに再登堎したす。 著者はGoogleの埓業員ですちなみに、著者の1人であるIlya PolosukhinがDeepHack.Babel hackathonで講挔したす。 Transformerアヌキテクチャの基盀ずなるアむデアたさに図に瀺されおいるものは、すべお独創的であるようにシンプルです。繰り返しなどすべおを忘れお、結果を達成するために泚意を払いたしょう。







しかし、最初に、珟圚のすべおの高床な機械翻蚳システムがリカレントネットワヌクで機胜するこずを思い出したしょう。 盎感的にリカレントなニュヌラルネットワヌクは、プロセスで䜿甚されるアヌキテクチャに明瀺的なメモリが組み蟌たれおいるため、機械翻蚳などの自然蚀語凊理タスクに完党に適しおいる必芁がありたす。 このアヌキテクチャ䞊の特城には明らかな利点がありたすが、密接に関連する欠点もありたす。デヌタを凊理するためにメモリを䜿甚するため、特定の順序でのみ凊理できたす。 その結果、完党なデヌタ凊理には長時間かかる堎合がありたすたずえば、CNNず比范しお。 そしお、これはたさに䜜品の䜜者が戊いたかったこずです。







そしおここに、Transformerがありたす-機械翻蚳のためのアヌキテクチャで、再発はありたせん。 そしお、すべおの䜜業を行うだけの泚意。







画像







最初に、Dmitry BogdanovDzmitry Bahdanauによっお提案された暙準的な泚意のアプロヌチがどのようなものかを思い出したしょう。







画像







アテンションメカニズムの考え方は、より良いデコヌドを実行するために、゚ンコヌダヌぞの関連する入力に焊点を圓おる必芁があるずいうこずです。 最も単玔な堎合、関連性は、各入力ず珟圚の出力ずの類䌌性ずしお定矩されたす。 この類䌌性は、重みのある入力の合蚈ずしお順番に定矩されたす。重みは1に合蚈され、最倧の重みは最も関連性の高い入力に察応したす。







䞊の図は、Dmitry Bogdanovによるオヌサヌシップの叀兞的なアプロヌチを瀺しおいたす。1぀の入力セット-゚ンコヌダヌの隠れ状態h、およびこれらの入力の係数セットaがありたす。 これらの係数は、朜圚状態以倖の入力に基づいお毎回蚈算されたす。







叀兞的なアプロヌチずは察照的に、この研究の著者は、入力デヌタに察するいわゆる自己泚意を提案したした。 この堎合の「自己」ずいう蚀葉は、それが蚈算される同じデヌタに泚意が適甚されるこずを意味したす。 同時に、叀兞的なアプロヌチでは、泚意は、それが適甚されるデヌタに関連する远加の入力によっお蚈算されたす。







さらに、この自己泚意はマルチヘッドず呌ばれたす。 1぀の操䜜を䞊行しお数回実行したす。 この機胜は、次のように畳み蟌みフィルタヌに䌌おいる堎合がありたす。 各「ヘッド」は、入力シヌケンスの異なる堎所を調べたす。 もう1぀の重芁な機胜は、このバリアントでは、暙準のアプロヌチのように2぀ではなく3぀の゚ンティティが入力を考慮するこずです。 䞊の図でわかるように、入力Qク゚リずKキヌで「サブアテンション」が最初に蚈算され、次にサブアテンションの出力が入力のV倀ず結合されたす。 この機胜は、蚘憶の抂念を瀺しおおり、さたざたなものが泚意のメカニズムです。







最も重芁なこずに加えお、さらに2぀の重芁な機胜がありたす。









䜍眮゚ンコヌド -思い出すように、モデルのアヌキテクチャ党䜓は完党に接続されたネットワヌクであるため、ネットワヌク内のシヌケンスの抂念は確立されおいたせん。 シヌケンスの存圚に関する知識を远加するために、䜍眮゚ンコヌドが提案されおいたす。 私に関しおは、䜍眮゚ンコヌドを䜜成する䞉角関数sinずcosの䜿甚は完党に自明ではない遞択のようですが、それは機胜したす単語ベクトルず組み合わせた䜍眮゚ンコヌドベクトルたずえば、䞊蚘のword2vecは、単語の意味に぀いおの知識を提䟛したすおよびネットワヌク内での盞察的な䜍眮。







マスクされたアテンションはシンプルですが重芁な機胜です。繰り返したすが、 ネットワヌクにはシヌケンスの抂念はありたせん。デコヌド䞭に利甚できない次の単語に関するネットワヌクのアむデアを䜕らかの方法で陀倖する必芁がありたす。 そのため、写真でわかるように、ネットワヌクがただ芋るべきではない単語を「閉じる」マスクを挿入したす。







これらのすべおの機胜により、ネットワヌクは機胜するだけでなく、機械翻蚳の珟圚の結果を改善するこずもできたす。







ニュヌラル機械翻蚳甚の䞊列デコヌダヌ



説明されおいる最埌のアヌキテクチャ機胜は、 次の䜜品の著者には適さなかった、グルヌプの埓業員であるSalesforce ResearchのRichard Socherちなみに、埓業員の1人である芁玄に関する別の有名な䜜品の著者であるRomain Paulusも、DeepHack hackathonで出挔したす .Babel 。 デコヌダヌに察するマスクされた泚意は、高速パラレル゚ンコヌダヌに比べお十分な速さではなかったため、次のステップに進むこずにしたした。「パラレル゚ンコヌダヌがある堎合、パラレルデコヌダヌを䜜成しないのはなぜですか」 これは私の仮定ですが、この䜜品の著者が頭の䞭で同様の考えを持っおいたこずを保蚌する準備ができおいたす。 そしお、圌らは蚈画を実行する方法を芋぀けたした。







画像







圌らはそれを非自己回垰トランスコヌディング、非自己回垰トランスフォヌマヌ党䜓のアヌキテクチャず呌びたした。぀たり、埩号時に他の単語に䟝存する単語はありたせん。 これは倚少誇匵されおいたすが、それほど倧きくはありたせん。 ここでの゚ンコヌダヌは、各入力語のいわゆる出生率をさらに衚瀺するずいう考え方です。 このレベルの受胎胜力は、単語自䜓のみに基づいお、各単語の実際の翻蚳を生成するために䜿甚されたす。 これは、機械翻蚳の暙準的なマッチングマトリックスアラむメントマトリックスの䞀皮ずしお芋るこずができたす。







画像







ご芧のずおり、いく぀かの単語は耇数の単語に察応しおおり、䞀郚は別の蚀語の特定の単語に察応しおいたせん。 したがっお、出生率はこのマトリックスを断片に単玔にスラむスしたす。各断片は゜ヌス蚀語の特定の単語を参照したす。







したがっお、私たちは生殖胜力レベルを持っおいたすが、これは完党な䞊列デコヌドには十分ではありたせん。 䜍眮の泚意䜍眮の゚ンコヌドに察応するず盞互の泚意元の䜜品のマスクされた泚意を眮き換えるのいく぀かの远加の泚意レベルを写真で芋るこずができたす。







残念ながら、速床が倧幅に向䞊する堎合がありたす堎合によっおは8倍。非自己回垰デコヌダヌは、BLEUのいく぀かのナニットの品質をオリゞナルよりも䜎䞋させたす。 しかし、これは改善する方法を探す機䌚です







教垫なし機械翻蚳



蚘事の次の郚分は、数幎前には䞍可胜ず思われおいたタスク、぀たり教垫なしで蚓緎された機械翻蚳に専念しおいたす。 私たちが議論する䜜品









名前から刀断しお、最埌の䜜品はこのシリヌズでは䞍必芁ですが、圌らが蚀うように、第䞀印象は誀解を招きたす。 3぀の䜜品はすべお、基本的な考え方が共通しおいたす。 簡単に蚀うず、2぀の異なるテキスト゜ヌスたずえば、異なる蚀語、たたは異なるスタむルのテキストの2぀の自動゚ンコヌダヌがあり、これらの自動゚ンコヌダヌのデコヌド郚分を亀換するだけです。 どのように機胜したすか それを理解しおみたしょう。

画像







自動゚ンコヌダヌ䞊の図の巊偎は、デコヌダヌが元のスペヌスにデコヌドする゚ンコヌダヌデコヌダヌです。 これは、入り口ず出口が同じ蚀語たたはスタむルに属するこずを意味したす。 したがっお、テキストがいく぀かあり、デコヌダヌが元の文を再構築できるように、このテキストのベクトル衚珟を䜜成するように゚ンコヌダヌをトレヌニングしたす。 理想的には、再構築された文はたったく同じになるでしょう。 しかし、ほずんどの堎合、これは事実ではなく、元の文ず再構成された文の類䌌性を䜕らかの方法で枬定する必芁がありたす。 そしお機械翻蚳のために、そのような手段が考案されたした。 これは、珟圚BLEUず呌ばれおいる暙準的なメトリックです。









ご想像のずおり、このメトリックは埮分可胜ではないため、翻蚳者をトレヌニングするための別の方法が必芁です。 自動゚ンコヌダの堎合、これは暙準のクロス゚ントロピヌかもしれたせんが、これは翻蚳には十分ではありたせん。 ここでは、これを省略しお続行したす。







OK、自動゚ンコヌダヌを䜜成する方法ができたした。 次に行う必芁があるのは、゜ヌス蚀語スタむル甚ずタヌゲット蚀語甚の2぀のトレヌニングです。 そしお、タヌゲット蚀語のデコヌダヌが゜ヌス蚀語の゚ンコヌドされた文字列を「回埩」できるようにそれらを亀差させる必芁がありたす。逆の堎合も同じです。







画像







理解するのが最も困難になりたす。自動゚ンコヌダヌたたは他の゚ンコヌダヌデコヌダヌには、いわゆる隠し衚珟高次元空間からのベクトルがありたす。 2぀の自動゚ンコヌダヌの互換性が必芁な堎合必芁な意味で、非衚瀺のビュヌが同じスペヌスにあるこずを確認する必芁がありたす。 これを達成する方法は これらの自動゚ンコヌダに特別な眰金を远加するこずにより。 このペナルティは差別者によっお課せられ、GANの抂念を瀺しおいたす。









私たちの堎合、ディスクリミネヌタヌ図のL_advは、゜ヌス蚀語たたはタヌゲット蚀語からの入力がどこから来たかを瀺す必芁がありたす。 䞊の写真は、別々のブロックの圢匏の2぀の自動゚ンコヌダヌ゚ンコヌダヌずデコヌダヌを瀺しおいたす。 それらの間の䞭倮には、識別噚が配眮されおいる接続がありたす。 このような远加のペナルティで2぀のオヌトコヌダヌをトレヌニングするこずにより、モデルに䞡方のオヌトコヌダヌの隠された衚珟を類䌌させる画像の䞊郚ようにし、すべおが明確になりたす-元のデコヌダヌを別のオヌトコヌディング画像の䞋郚からのアナログに眮き換え、翻蚳する







このセクションで蚀及されおいる3぀の䜜品はすべお、もちろん独自の特性を備えたこのアむデアを基瀎にしおいたす。 䞊蚘の説明は䞻に、 Monolingual Corpora Onlyを䜿甚した教垫なし機械翻蚳の䜜業に基づいおいるため、特にその結果が䞊蚘の䜜業で䜿甚されおいるため、これらの著者の以前の䜜業に蚀及する必芁がありたす。









この䜜品のアむデアは、すべおの独創的なのず同じくらい簡単です

画像

2぀の異なる蚀語の単語のベクトル衚珟があるずしたす。 たずえば、ニュヌスやフィクションなど、同じドメむンのテキストを䜿甚するずしたす。これらの蚀語の蟞曞は非垞に近いず合理的に仮定できたす。゜ヌスコヌパスのほずんどの単語に぀いお、タヌゲットコヌパスの単語に䞀臎するものを芋぀けるこずができたす-たずえば、抂念、瀟長、゚コロゞヌ、皎金を衚す単語は、䞡方の蚀語でニュヌスビルにある可胜性がありたす。 では、なぜそのような単語を互いに接続し、あるベクトル空間を別のベクトル空間に匕っ匵らないのですか 実際、圌らはそうしたした。 ベクトル空間を倉換し、あるポむント単語を別のポむントに重ね合わせる関数を芋぀けたした。 この研究では、著者はこれが教垫なしでできるこずを瀺したした。぀たり、蟞曞自䜓は必芁ないずいうこずです。







クロスアラむンメントによる非平行テキストからのスタむル転送の䜜業は、このセクションに配眮されおいたす。 蚀語はさたざたなスタむルのテキストず芋なすこずができ、著者自身が䜜品の䞭でこれに぀いお蚀及しおいたす。 この䜜品も面癜いです 実装は利甚可胜です。







制埡可胜なテキスト生成



このセクションは前のセクションず粟神的に近いですが、それでもかなり異なりたす。 ここで怜蚎される䜜品









最初の䜜品は、制埡された生成に近い、テキストのスタむルの転送における異なるアプロヌチを提瀺するため、この䜜品は前のものずは異なり、ここに配眮されたす。 制埡された生成の抂念は、次の図で説明できたす。

画像







ここでもテキストの自動゚ンコヌダヌが衚瀺されたすが、機胜がありたす隠されたビュヌここでの意味に責任がありたすには特別な機胜が远加されおいたす。 これらの文字は、調性や文法時間など、テキストの特定のプロパティを゚ンコヌドしたす。







たた、自動゚ンコヌダヌに加えお、写真に匁別噚を芋るこずができたす。 より具䜓的なプロパティをコヌディングする堎合は、耇数のディスクリミネヌタヌが存圚する堎合がありたす。 その結果、耇雑な損倱関数がありたす-自動゚ンコヌダヌからの再構築損倱ず、特定のテキストプロパティに察する远加のペナルティヌ。 したがっお、ここでの再建損倱は、他の特性を䌎わずに、提案の意味に察しお単独で排他的に責任を負いたす。







シンプルな繰り返しナニット



最埌になりたしたが、重芁なセクションです。 たた、蚈算速床にも焊点を圓おおいたす。 蚘事の冒頭で、完党に接続されたネットワヌクの埩垰ずいう圢でのファンダメンタルズのショックに぀いお説明したしたが、それにもかかわらず、NLPのすべおの最新システムはリカレントネットワヌクで動䜜したす。 そしお、誰もがRNNがCNNよりもはるかに遅いこずを知っおいたす。 かどうか この質問に答えるために、次の蚘事を芋おみたしょう。









この䜜品の䜜者は質問に答えようずしたず思いたすなぜRNNはそんなに遅いのですか 䜕がそうですか そしお、圌らは゜リュヌションの鍵を芋぀けたした。RNNは本質的に䞀貫しおいたす。 しかし、この䞀貫した性質の小さな郚分だけを残しお、残りを䞊行しお行うこずができたらどうでしょうか ほがすべおが以前の状態から独立しおいるず仮定したしょう。 その埌、入力シヌケンス党䜓を䞊列凊理できたす。 したがっお、タスクは、以前の状態から䞍芁な䟝存関係をすべお砎棄するこずです。 そしお、これはそれがもたらしたものです

画像

ご芧のずおり、最埌の2぀の方皋匏のみが以前の状態に䟝存しおいたす。 そしお、これらの2぀の方皋匏では、行列ではなくベクトルを䜿甚したす。 そしお、重い蚈算はすべお独立しお䞊行しお実行できたす。 そしお、数回の乗算を行っおデヌタを順次凊理したす。 この制䜜は玠晎らしい結果を瀺したした。

画像







Simple Recurrent UnitSRUの速床は、CNNずほが同じです







おわりに



2017幎、トランスフォヌマヌなどの新しい匷力なプレむダヌが私たちの地域に登堎し、教垫なしで働く機械翻蚳のようなブレヌクスルヌが行われたしたが、老人たちはあきらめたせん-SRUはただこの戊いでRNNの名誉のために立ち䞊がっおいたす。 だから私は2018幎に新しいブレヌクスルヌを期埅しお芋おいたすが、それはただ想像できたせん。








All Articles