人工知能の常識を教える方法





5年前、ロンドンに本拠を置くAIベースの企業であるDeepMindのプログラマーは、AIが古典的なアーケードゲームを独力でプレイすることを学ぶのを喜んで見ました。 ファッショナブルなディープラーニング(GO)テクノロジーを使用して、一見奇妙な作業を行いました。アタリブレイクアウトゲームをマスターし、レンガの壁からボールを​​打ち、レンガを消しました。



GOはマシンの自己学習です。 AIに大量のデータをフィードすると、徐々にパターンを独立して認識し始めます。 この場合、データは画面上で起こっていたものでした-大きなピクセルはレンガ、ボール、ラケットを表しています。 階層化されたアルゴリズムで構成されるニューラルネットワークであるAI DeepMindでは、ブレイクアウトゲームのルール、操作の原則、ゲームの目標および方法についての知識はありませんでした。 プログラマーは、ニューラルネットワークが各アクションの結果、各ボールの跳ね返りを研究できるようにしました。 これは何につながりますか?



それは印象的なスキルであることが判明しました。 最初の数回の試行で、AIはランダムにハングアウトしました。 数百回プレーした後、彼は正確にボールを打ち始めました。 600回目のゲームまでに、ニューラルネットワークは、ブレイクアウトをプレイする人々が使用するエキスパートの動きを考えていました。プレーヤーがレンガの穴を開けて、ボールを壁の上のジャンプに送ります。



「これは私たちにとって大きな驚きでした」と、DeepMindのディレクターであるDemis Khasabis氏は述べています。 「戦略はシステム自体から流れました。」 AIは、ゲームの根底にある内部の概念を理解するために、非常に微妙なヒューマノイド思考の能力を実証しています。 ニューラルネットワークは人間の脳の構造をおおまかにコピーするので、理論的にはある意味で、私たちの思考スタイルもコピーする必要があります。 この瞬間は理論の確認のようでした。



その後、昨年、サンフランシスコに本拠を置くAI研究会社であるVicariousのコンピューター科学者は、現実世界の状況でAIをテストする興味深い方法を提供しました。 DeepMindで使用した種類のAIを使用して、Breakoutをプレイするようにトレーニングしました。 彼は元気でした。 そして、彼らはゲームのレイアウトを少し調整し始めました。 彼らはラケットを上げるか、フィールドの中央に侵入できないエリアを追加します。



人間のプレイヤーはこれらの変化に素早く適応できます。 しかし、ニューラルネットワークはできませんでした。 Crazy AIは、彼が数百回の試行で学んだ種類のブレイクアウトしかプレイできないようです。 彼は新しいものを消化しませんでした。



「人々は単にパターンを認識することはできません」と、Vicariousの創設者の1人であるITスペシャリストであるDilip George氏は言います。 -まだ見ているもののモデルを作成しています。 そして、これらの因果モデル-原因と結果を結び付けます。」 人々は推論に従事し、周囲の世界について論理的な結論を導きます。 新しい状況を理解するのに役立つ常識的な知識ベースがあります。 プレイしたばかりのブレイクアウトとはわずかに異なるブレイクアウトを見ると、同様のルールとゴールを持っている可能性が高いことに気付きます。 ニューラルネットワークはブレイクアウトについて何も理解していませんでした。 彼女はパターンに従うことができるだけです。 パターンが変わると、彼女は無力になりました。



GOはAIの王です。 それが主流に突入した6年間で、それは周囲の世界を知覚し、感じる方法を機械に教える主要な方法になりました。 彼女はAlexaの音声認識、Waymoのロボット車、Googleの即時翻訳の背後にいます。 Uberはある意味で、巨大な最適化タスクであり、機械学習(MO)を使用して、乗客が車を必要とする場所を予測します。 中国のハイテク大手バイドゥには、2,000人のプログラマーがニューラルネットワークで作業しています。 何年もの間、GOは改善するだけで、人に合わせて柔軟で高速なインテリジェンスを備えたマシンを容赦なく産み出すと思われていました。



しかし、一部の異端者は、市民防衛が壁に接していると主張しています。 彼らは、それだけでは一般化された人工知能(OII)を生成することは決してできないと言います。なぜなら、真の人間の心はパターンの認識だけではないからです。 AIに日常の常識である人間の心を与える方法に取り組み始める時が来ました。 これがうまくいかない場合は、入力の一部を変更することで簡単にだまされる可能性のあるパターン認識システムとして、GOの制限を回避することになります。 しかし、これをなんとかしたら、より安全でより便利なデバイスの爆発的な成長を目撃するだろう-散らかった家の中で動く医療ロボット、偽陽性に苦しむことのない偽の認識システム、病気の原因と結果を研究する機械によって作られた医療のブレークスルー。



しかし、車の真の推論はどのように見えるのでしょうか? そして、市民社会が私たちをこれに導くことができないなら、何ができますか?







ゲイリーマーカスは、ニューヨーク大学で思慮深い48歳の心理学および神経学の教授であり、複レンズメガネを使用しており、おそらく最も有名な正統派の深い学習背教者です。



ニューラルネットワークが実験段階にあった1980年代と90年代に、マーカスは初めてAIに興味を持ち、それ以来彼の議論は変わっていません。 「私はパーティーに遅れているわけではなく、ここですべてを下品にしたい」とニューヨーク大学近くの彼のアパートで会ったとき、マーカスは私に言った(彼と私も友達だ)。 「GO爆発が発生するとすぐに、私は言った:みんな、これは間違った方向だ!」



その後、GO戦略は現在の戦略と変わりませんでした。 ヒナギクを認識することを学ぶために機械が必要だとします。 最初に、アルゴリズムの「ニューロン」をサンドイッチのようなレイヤーに結合してエンコードする必要があります(複数のレイヤーを使用する場合、バターはより厚くなる、または「より深く」-したがって「深く」学習します)。 デイジーの画像を表示する最初のレイヤー、およびそのニューロンは、この画像が前に見たヒナギクの例に似ているかどうかに応じて、アクティブ化されるか、アクティブ化されません。 その後、信号は次のレイヤーに移動し、プロセスが繰り返されます。 その結果、レイヤーはデータを選別し、判定を下します。



第一に、ニューラルネットワークはブラインド推測に従事しています。 彼女は人生をゼロから始める。 一番下の行は、有用なフィードバックを整理することです。 AIがニューロンのセットでデイジーを推測しないたびに、間違った答えにつながる接続が弱められます。 推測すると、接続が強化されます。 十分な時間とヒナギクが経過すると、ニューラルネットワークはより正確になります。 彼女は、ヒマワリやアスターではなく、ヒナギクの特定のパターンをつかむことを学び、毎回デイジーを識別できるようにします。 長年にわたって、単純なネットワークから始めて繰り返してトレーニングするという重要なアイデアが改善され、ほとんどすべてのアプリケーションで役立つように思われました。



しかし、マーカスは確信していませんでした。 彼の観点からすれば、白紙の状態は問題でした。人々は周囲の世界を観察することによってのみ知性を発達させると考えられています。つまり、機械もこれに対応できるということです。 しかし、マーカスは、人々はそのように働かないと考えています。 彼はノーム・チョムスキーが築いた知的な道をたどります。 ノーム・チョムスキーは 、人々は学習の素因を持って生まれ、言語を学び、物理世界を解釈するプログラムを持っていると主張しています。



おそらく脳に似ていると思われるすべてのもので、彼は、ニューラルネットワークは人間の脳のようには機能しないようだと彼は指摘します。 たとえば、必要なデータが多すぎます。 ほとんどの場合、各ネットワークには数千または数百万のトレーニング例が必要です。 さらに悪いことに、ネットワークに新しいアイテムを認識させる必要があるたびに、最初からやり直す必要があります。 カナリアを認識するように訓練されたニューラルネットワークは、鳥のさえずりや人間の音声を認識するのにまったく役に立ちません。



「トレーニングに大量のデータは必要ありません」とマーカスは言います。 彼の子供たちは、車を認識する前に百万台の車を見る必要はありません。 さらに良いことは、一般化する方法を知っていることです。最初にトラクターを見たとき、彼らはそれが車のように見えることを理解します。 彼らはまた、反対を仮定する方法を知っています。 Google翻訳は、「グラスが動かされてテーブルから落ちた」という英語の文章に相当するフランス語を提供できます。 しかし、彼は言葉の意味を理解しておらず、グラスを動かさないと何が起こるかわかりません。 人々は、マーカスが指摘しているように、文法の法則だけでなく、言葉の背後にある論理も把握しています。 あなたは子供に発明された動詞「ダンス」を与えることができ、彼は過去形で「ダンス」するだろうと推測するでしょう。 しかし、彼はそのような言葉を見たことはありませんでした。 彼は「訓練」されていませんでした。 彼は言語の論理を直観的に感じ、それを新しい状況に適用できます。



「GOシステムは抽象的な知識を統合する方法を知りません」とMarcus氏は言います。Marcusは、より少ないデータから学習できる(そして2016年にUberに販売できる)AIを作成した会社を設立しました。



今年、MarcusはarXivに関する彼の研究のプレプリントを発表しました。そこでは、新しいアプローチがなければ、GOは現在の限界を克服できないと主張しています。 彼はブレークスルーを必要としています-AIが世界について推論するのを助ける組み込みまたは補完的なルール。



All Articles