ユニバーサルインテリジェンスを構築するためのアプローチの基礎。 パート1

ユニバーサルインテリジェンスから強力なAIまで。 強力な人工知能を作成するための見通し



人工知能(AI)の分野は、さまざまな分野で人間の活動を自動化するという点で、多くの注目すべき実用的な結果をもたらしました。 ただし、究極の目標-真にインテリジェントなマシン(強力なAI)の作成はまだ達成されていません。 同時に、このような強力なAIが何らかの形で作成できることを本当に疑う科学者はほとんどいません。 異議がある場合は、宗教的な性格を持ち、人の非物質的な魂の存在に訴えかけます。 しかし、非物質的な世界に対するそのような急進的な見解でさえ、自由意志、創造性、感情などの概念的に複雑な現象のみが原因であり、人とほとんど区別できない行動を機械に与える可能性を否定しません。 強力なAIをいつどのように作成できるかという質問に対する答えは、それほど明確ではありませんか?



エリアとしての人工知能はさまざまな時代を経験しています。 しばしばロマンチックと言われる最初の期間は、数十年の間、思考機械の創造が差し迫っていることを約束しました。 不当な期待は、より実用的な態度につながり、多くの研究者は弱いAI(狭いクラスの実際的な問題を解決できる非普遍的なインテリジェントシステム)に向けられました。 この傾向のピークはエキスパートシステム(ES)にあります。これは、マシンインテリジェンスではなく、複雑な応用問題に対する効果的な商用ソリューションを約束しました。 ただし、ここでの期待は満たされませんでした。 ECは、実際にうまく適用されましたが、世界のビジネスに革命をもたらすような画期的なテクノロジーにはなりませんでした。そのため、この分野への投資は著しく減少しました[McCarthy、2005]。 米国では、「AIの冬」が訪れました。 日本は第5世代のコンピューター設計に失敗しました。



ただし、AIの研究はまったく衰退していません。 コンピュータビジョン、テキスト分析、音声認識など、AIから際立った多数のサブリージョンは、センセーショナルではありませんが、ますます重要になり続けています。 弱いAIシステムに対するビジネスの関心が復活しました。 人類全体にとって将来のAI分野の非常に重要なことについての言葉が再び繰り返され始めた[Nilsson、2005a]。 そして再び、AIの分野はその究極の目標である真にインテリジェントな機械の作成を「公式に」返す必要があるという考えが表明されました[Brachman、2005]



しかし同時に、純粋な学界では、科学者たちは強力なAIを作成するためのタイムラインを表明することを止めました。 それにもかかわらず、この分野のいくつかの著名な専門家は、再び数十年(時には1年)の日付と呼ばれています[Hall、2008]。 そして今回、そのような専門家の期待は、独立した証拠によって裏付けられています。 それらの1つは、少なくともいくつかの推定では、人間の脳の計算リソースに匹敵するコンピューターによる計算能力が2030年代までに達成できるという事実によるものです(一部では、現在[Hall、2008]で達成可能です)。 実際のAIの作成に関する初期の予測が現実的ではない客観的な理由の1つが(現在明らかなように)計算能力の不足であるという事実を考えると、近い将来にこの理由を排除する可能性が高くなります。



しかし、強力なAIを作成するには、コンピューティングパワーが前提条件にすぎません。 さらに、AIの理論にはまだ解決されていない多くの重大な問題があります。 これらは今後数十年で解決されるでしょうか? これに対するある程度の自信は、技術的な特異点に関連する予測によって与えられます(たとえば[Kurzweil、2005]を参照)。 特異性の概念は、技術的な(および以前は生物学的であった)システムの複雑さの加速的な増加という事実に基づいています。 グローバルな進化の各段階で、システムの複雑さは指数関数的であることが判明し(ムーアの法則が特定の例です)、段階間を通過するたびに指数が増加します。神経系-数千万年)、このプロセスの出力は有限時間で無限大になると予想されます。



複雑さが増す曲線の外挿では、2050年以降(および通常はそれ以前)に特異点の発生の瞬間を特定することはできません。また、超人的な心の出現は、おそらくシステムを複雑にする後続の段階の1つであるはずです。 もちろん、真の特異性を達成する可能性については議論の余地があります:複雑さの増加のグラフは客観的ですが、その外挿は異なる可能性がありますが、次の段階(メタシステム遷移)への時間間隔はあまりにも突然、長すぎてはなりません。 したがって、この概念は、今後数十年にわたって強力なAIを作成できる可能性も確認します。



同時に、一流の専門家は、短期プロジェクトのフレームワークで強力なAIを達成することは不可能であることに注意し[McCarthy、2005]、高度に専門化されたインテリジェントシステムを作成し[Nilsson、2005b]、または自然言語を教えたり]。 最初の10年以上商業的な結果を期待できない場合でも、強力なAIを作成する問題を設定して解決する必要があります。



アカデミック環境では、すべてがAIサブドメインの結合に対する完全に自然な呼び出しに限定されています[Bobrow、2005; Brachman 2005; Cassimatis et al。、2006]。それぞれがすでに独自の深い特異性を獲得しています。 各サブリージョンで達成された進歩により、結果を組み合わせることで、コンピューター時代のd明期に構築されたものよりもはるかに強力なインテリジェントシステムを構築し、最初の思考マシンを作成できるようになることが期待されます。 一方、このような関連付けは、サブドメイン自体に多くを与える必要があります。結局、フレームワーク内で解決されたタスクは、多くの場合AI完了と見なされます。 したがって、これらすべてのタスク間に基本的な関係があるため、強力なAIを作成せずにパターン認識、言語理解、または自動定理の普遍的なシステムを作成することはほとんど不可能です[Brachman、2005]。



ティーチング、知識の提示、推論など、本格的なインテリジェンスに必要なすべての機能を単一のシステムに結合する方法としての認知アーキテクチャの使用と研究 AI全般の新しい支配的なパラダイムで際立っていました[Brachman、2005]。 そして、人間レベルでの人工知能システムの構築に公式に関連付けられているのはこのパラダイムです[Cassimatis et al。、2006; Cassimatis、2006]、またはユニバーサル[Langley、2006]。



そのような統合研究は必要ですが、どれだけ十分ですか? 強力なAIを単一のシステムとして作成し、基本的な認知機能を含める必要があるという一般的な考え方は非常に明白であり、非常に長い間表現されてきました。 しかし、これまで、認知機能の最低限必要なリストも、その実装の詳細を正当化するものもありませんでした。

さらに、本質的に異なる認知アーキテクチャが多数存在するだけでなく[Jones and Wray、2006]、認知に代わるアーキテクチャパラダイムもあります[Langley、2006]。 同時に、認知アーキテクチャは主に統合の問題、個々の機能の相互作用に集中しています。 しかし、弱い認知コンポーネントから強力なAIを取得することは可能ですか? 私たちの意見では、答えは明確です:いいえ。 既存の弱いコンポーネントを結合する方法論的な問題を議論する代わりに(または少なくとも追加して)、強力なAIの構造とそれらを組み合わせるために必要なアーキテクチャの両方が同時に続く、強力なAIの理論を開発する必要があります。



[Cohen 2005]で正しく指摘されているように、「パフォーマンスの低下と普遍的なスコープは、良好なパフォーマンスと狭いスコープよりも優先されます。」 示されているように、効果的な高度に専門化されたシステムを作成しても強力なAIに近づくことはほとんどないことを考えると、普遍性の観点から現代の認知システムに欠けているものを尋ねることは自然ですか?



アルゴリズムの完全性としての普遍性。


歴史的には、検索やトレーニングなど、人工知能の分野でいくつかの基本的な分野が出現しています。 これらの指示は、知的タスクを最も単純化された純粋な形式で設定すると、はっきりと見え始めます。 したがって、ゲームの問題や定理の証明を考慮して、それらの普遍的な解決策を提供することができます-可能な操作の空間におけるオプションの完全な列挙です。 もちろん、有限のコンピューティングリソースでは徹底的な検索は不可能ですが、これは知性の基本的なコンポーネントとしての検索の概念を排除するものではありません。 探索空間が事前にわからない場合は、学習のタスクが設定されます(より正確には、特定の操作が世界とエージェント自体の状態にどのように影響するかを予測します)。 ここで、普遍的な解決策はそれほど明白ではありませんが、AI領域の起源のまさにその瞬間からほとんど知られています。 これは、情報のアルゴリズム理論に基づいたR. Solomonov [Solomonoff、1964]の予測の普遍的な方法です。 この方法は、オプションの膨大な列挙を必要とするため(実際には、アルゴリズム的に解決できないシャットダウンの問題を解決する必要があるため)、実際には適用できません。



これらの理想的な方法は、限られたコンピューティングリソースに直面した場合にアプローチする必要があるものです。これは、リソース制限のみが、強力なAIを実装できるという事実からこれらのメソッドを分離するためです。 たとえば、限られたリソースで検索問題を解決しようとすると、ヒューリスティックプログラミングおよびメタヒューリスティック検索方法の問題全体が発生します。 また、例えば、転移学習、概念訓練などを含む機械学習の問題は、リソースが限られているために発生します。 しかし、同時に、実用的な方法を開発している研究者は、努力しなければならない理想を振り返らないことがよくあります。 これは、修復不可能な欠陥を持つ弱い人工知能法の作成につながります。 この欠陥は、これらのメソッドがチューリング完全ではないという事実にあります。つまり、アルゴリズムの限られたスペースで機能し、原則としてこれらの制限を超えることはできません。 異なる特定の方法では、アルゴリズム空間のドメインは互いに異なる場合がありますが、それらの最終的な結合はアルゴリズム的に完全な空間を与えることはできません。 機械学習方法の観点から言えば、これは、データに含まれる可能性のある任意の規則性を特定できないこと、開発者が以前に提供していなかった世界のモデルを構築できないことを意味します。



認知アーキテクチャの分野での作業(強力なAIへのアプローチとして)が十分ではない理由は、ここにあります。 彼らは、知識、機械学習を表すソリューションの空間で検索する現代の方法で十分であり、それらの組み合わせだけが欠けているという前提から進んでおり、新しい品質が生まれます-強力なAI。 しかし、知性の普遍性の性質は、原理的にはアルゴリズム的に完全な空間からのモデルで動作できるという事実にあると信じています(実際にはもちろん、これは完全に達成されていません)。 この点で、普遍的で強力なAIの概念を分離すると便利です。 実際には同じことを意味するかもしれませんが、強力なAIの概念は、人間の知能のように見えるモデルを作成することを暗黙的に意味しますが、普遍的なAIの概念は、まず第一に、乗り越えられないという事実に注意を向けますAIが何を学習できるか、またはどの環境で適切に行動できるかについての制限。

これを確実にするために、無限のリソースの条件で動作する強力なAIの理想的なモデルから始めることができます。 真に自律的な人工知能は、具現化された知的エージェントとして作成する必要があるため、人が解決できるすべてのタスクを仮説的に解決できるエージェントの理想的なモデルを開発する必要があります。



そのようなモデルを作成する試みがあり(最も有名なものはAIXI [Hutter、2005])、それらについては後で説明します。 そのようなモデルを考慮すると、さまざまな研究者がアルゴリズムの完全性によって知性の普遍性が確保されると結論づけることに注意してください。この特性は、少なくとも限界内で維持するよう試みる必要があります(たとえば[Pankov、2008]を参照)。

したがって、最初の方法論の原則は、ユニバーサルAIシステムによって導出または使用できる多くのモデル(パターン、概念、アイデア)のアルゴリズムの完全性に対する制限がないことを維持することです。



リソース制約としての実現可能性。


一般的なアルゴリズムインテリジェンスモデルは、出発点として適しています。 ただし、これらのモデルを実現するには、リソースの制約を考慮する必要があることも明らかです。 実際、認知プロセスの詳細を大きく決定するのはまさにこの制限です。



実際、ユニバーサルインテリジェンスのモデルは、実際のインテリジェンスとほとんど共通点がなく、「認知操作」によって判断されます。 そのようなモデルは、明示的に概念システムを構築したり、計画を実行したり、注意を払ったりすることはありません。 彼らが「理解」、自己認識などの機能を持つかどうかを言うことは非常に困難です。 ここでは、チェスプログラムと(不完全な)類推を描くことができます。これは、無制限のリソースのために、完全な検索を実行します。 このプログラムは非常に簡単です。 その唯一の基本的な操作は検索です。 派生用語でチェスの位置の説明はなく、理解するようなものはありません。 しかし、チェスの枠組みでは、彼女は完璧に振る舞います。 同様に、現実世界で行動する理想的な具現化された知性を想像することができます。



このような理想的な知性に認知機能の主要部分がないことは、次の2つのいずれかを意味します。 これらの機能のいずれかは、限られたリソースの結果です(たとえば、注意のために、多くの場合、これは明らかです)。 いずれかの知性は、それが通常意味するものとは完全に異なるものです(そしてそれは問題を解決する手段を意味し、その主なものは生存です)。 おそらく、知性がまったくないと考えられる場合、2番目の選択肢はそれほど無意味ではありません(そして最初のものとそれほど矛盾していません)、しかし、問題を解決するいくつかの顕著な方法(つまり、知性がそれを達成する方法よりも機能ではないことが重要である場合)。 同時に、無限のコンピューティングリソースを使用すると、より簡単な手段で合理的な動作を実現できます。 幸いなことに、「インテリジェンス」(「思考」プロセスの特定の構造的複雑さ)によるものではなく、「粗い計算能力」による理想的な(妥当性の観点から)動作を実装するシステムを合理的と呼ぶべきかどうかを議論することは、そのようなシステムの性質上必要ではありません。 議論する必要がある唯一のことは、このシステムが本当に自然な知能のすべての能力を持っているかどうかです。 これに疑問がある場合は、対応する機能の達成可能性を実証するか、モデルを指定することにより、それを克服する必要があります。



アーキテクチャを定義する強力なAIの基本的なプロパティとしての限られたリソースという考え方は、すでに表明されています[Wang、2007]。 しかし、このアイデアだけで導かれるだけでは十分ではありません。これについては以下で説明します。 今、私たちは、限られた資源を考慮に入れて、知性の(アルゴリズム的な)普遍性を侵害してはならないことに注意します。 相対的に言えば、リアルインテリジェンスは、コンピューティングリソースを無制限に増加させて完全なインテリジェンスを追求する「いつでも」の方法です。



ユニバーサルアルゴリズムインテリジェンスモデルの開発者は、リソース制約を導入する必要性に同意しています(たとえば、[Schmidhuber、2007]、[Hutter、2007]を参照)。 これらのモデルにリソース制約を導入する試みは、ユニバーサルAIへの2番目のステップと見なすことができますが、このステップがどれほど重要であるかを判断するのは困難です。どの世界で機能するか。

したがって、2番目の方法論の原則は、理想的なユニバーサルインテリジェンスのモデルにリソースの制約を導入することにより、実際のユニバーサルインテリジェンスのアーキテクチャを構築することです。



知性の現象の主な内容としての世界についての先験的な情報。


具現化された知能は、帰納と演ductionの問題を解決する際に実行される計算操作の数だけでなく、物理世界で実行されるアクションの数によっても制限されます。 2番目のタイプの制限は基本的に1番目の制限とは関係がありませんが、何らかの関係があります:何らかのアクションを実行すると、推論する必要がなくなり、逆に、考えることで、物理的な世界で試行アクションの数を減らすことができます。 コンピューティングリソースが限られている理想的なアルゴリズムインテリジェンスのモデルでは、このタイプの制約は考慮されません。



世界的に、取られた行動の有効性を高めることは、主に外界に関する情報の蓄積に関連しています。 最小限のアプリオリ情報を持つ理想的な知能のモデルを想像できます。 このインテリジェンスは(コンピューティングリソースの効率的な使用を含む)何でも学習でき、限界では特殊なインテリジェンスと同じくらい効果的ですが、時間がかかりすぎます。 そして、もちろん、そのような知性は、初等教育の過程で自律的に生き残ることはできません。



さらに、実際のインテリジェンスのアプリオリ情報は、特に模倣などの能力の形をとる非常に多様な形をとることができます。 確かに、理想的な知性から、事前にこの能力を持たずに模倣できることを期待する必要がありますが、そのためには、最初に多くの情報を蓄積しなければなりません。 この機能がすぐに使用可能になると、物理的な世界での自分のアクションの最適化を大幅に加速できます。 模倣によってロボットを訓練するためのモデルが現在広く研究されていること(および、神経生理学におけるミラーニューロンの研究)は注目に値します。 ただし、問題は、このメカニズム(他のすべての追加のアプリオリメカニズムと同様)が知性の普遍性と一致することです。 同様に、言語能力はある程度先験的に組み込まれている必要があります。 原則として、ユニバーサルインテリジェンスはそれらを単独で取得できないためではなく、この取得に時間がかかりすぎる可能性があるためです。



知能の発達を加速することを可能にする外界(純粋に身体的および社会的)に関する先験的な情報としての多くの認知能力の説明(実際、情報の蓄積とその処理に帰着する)は、非常に明白です。 ただし、この説明は、ユニバーサルインテリジェンスのデバイスを決定するために使用されませんでした。 事前情報の最小量とそのプレゼンテーションの形式に興味があります。これにより、実際のAIが人よりも遅くなることはありません。 この場合の基本的な問題は、ユニバーサルAIの構造にアプリオリ情報を埋め込むことです。



この瞬間の重要性は、自然知能のアーキテクチャの柔軟性の例に見られます。 たとえば、人間の脳は、言語情報が音声で送信されることを事前に認識していません。 プロトポンセプトの形成では、条件反射に関連するメカニズムが機能します。 真の概念を形成する能力がアプリオリに組み込まれている場合、感覚モダリティに結び付けられていません。 このような普遍性は、AIの構造にアプリオリな要素を導入するときにも残さなければなりません。 現在、教育概念のモデルでは、セマンティックチャネルと言語チャネルへの分離が先験的に実行されるだけでなく、モダリティへのバインドも行われています。 先験的な情報を反映する他の認知メカニズムのモデリングに関して、同様の結論を下すことができます。 これの最も顕著な例はエキスパートシステムです。これは、自律的な拡張の可能性がない場合、アプリオリに大量の知識が含まれているため、明らかに、ユニバーサルAIの場合は避ける必要があります。



一方、AIの作成を難しくしているのは、実際のインテリジェンスとその形式の多様性に必要なアプリオリ情報の量です(これは、外界の最も多様な側面に関する情報、および自分のリソースの最適な使用の発見的方法に関する情報である可能性があります)。 この意味で、ユニバーサルインテリジェンスの単純なモデルは、その創造にほとんど近づきません。 実際に使用される認知アーキテクチャは、それらをユニバーサルにしようとする際に完全なやり直しを必要としない場合、さらに有用になる可能性があります。 最初は弱いコンポーネントで構成されている既存のシステムに普遍性プロパティを追加する代わりに、普遍的な非実用的なシステムから始めて、古典的なAIの分野で蓄積されたヒューリスティックを一貫した方法で追加する方が生産的です。



知性の実質的な複雑さ、その認知アーキテクチャは、私たちが過度に長いトレーニングなしで、限られたリソースの条件で既存の世界で行動することを可能にします。 しかし、これは私たちの知性の主な複雑さが周囲の世界の最適化に関係していることを意味します。 そのような知性の構造は、知性の普遍的なモデルで理論的に推定することはできませんが、普遍的な知性自体または開発者によって経験的に取得する必要があります。 当然、同時に、できるだけ普遍的な知性を作りたいと思っています。 より具体的には、このようなインテリジェンスは、言及されている最も単純なモデルと同じくらい多目的に使用できます。 それらの違いは、私たちの世界に対する選好や偏見の変化にすぎません。 当然、私たちの世界に対するそのような知性の有効性の増加は、他のいくつかの可能な世界でその有効性を減らすことで起こります(ただし、ゼロではありません)。世界、これは完全に受け入れられます。



しかし、私たちの世界自体が「普遍的な環境」であるため、普遍性の喪失はこの場合容認できません。 この点で、普遍的な「偏りのない」モデルでは、実際のAIの構築を開始することはかなり可能です。 AIが独立して(自己最適化を含む)効果的に機能できるようになるまで、世界の機能に関連するヒューリスティックを、最も一般的なものから徐々にそれらに導入できます。

したがって、3番目の方法論の原則は、先験的な情報をユニバーサルインテリジェンスに導入して、エージェントが実世界で自律的に機能するための個体発生で取得する必要があるデータ量を減らすことです。ただし、その後の普遍的な誘導と演theが先験的な情報と矛盾しない場合に限ります。



パート2



文学


(McCarthy、2005)McCarthy J. The Future of AI — A Manifesto // AI Magazine。 2005.V. 26.いいえ4.P. 39。

(Nilsson、2005a)Nilsson NJ Reconsiderations // AI Magazine。 2005. V. 26. No 4. P. 36–38。

(Nilsson、2005b)Nilsson NJ人間レベルの人工知能? まじめに! // AIマガジン。 2005. V. 26. No. 4. P. 68–75。

(Brachman、2005)Brachman R.「The Very Idea」に戻る// AI Magazine。 2005. V. 26. No 4. P. 48-50。

(Bobrow、2005)Bobrow DG AAAI:大規模システムの時間です// AI Magazine。 2005. V. 26. No 4. P. 40–41。

(Cassimatis et al。、2006)Cassimatis N.、Mueller ET、Winston PH Acheving Human-Level Intelligence through Integrated Systems and Research // AI Magazine。 2006. V. 27. No. 2. P. 12-14。

(Langley、2006)Langley P. Cognitive Architectures and General Intelligent Systems // AI Magazine。 2006. V. 27. No. 2. P. 33–44。

(カシマティス、2006)Cassimatis NL人間レベルの知性を達成するための認知基質// AI Magazine。 2006. V. 27. No. 2. P. 45–56。

(Jones and Wray、2006)Jones RM、Wray RE知識集約型インテリジェントエージェントのフレームワークの比較分析// AI Magazine。 2006. V. 27.No 2. P. 57-70。

(Cohen 2005)Cohen PRチューリングのテストではない場合、それでは何? // AIマガジン。 2005. V. 26. No 4. P. 61–67。

(ホール、2008)Jストーズホール。 Engineering Utopia //人工知能とアプリケーションの最前線(Proc。1st AGI Conference)。 2008. V. 171. P. 460-467。

(Pankov、2008)Pankov S. AIXIモデルの計算近似//人工知能とアプリケーションの最前線(Proc。1st AGI Conference)。 2008. V. 171. P. 256–267。

(Duch et al。、2008)Duch W.、Oentaryo RJ、Pasquier M. Cognitive Architectures:Where Do Go Go Here Here // Frontiers in Artificial Intelligence and Applications(Proc。1st AGI Conference)。 2008. V. 171. P. 122–136。

(Yudkowsky、2011)Yudkowsky E. Complex Value Systems n Friendly AI // Proc。 人工知能-第4回国際会議、AGI 2011、米国カリフォルニア州マウンテンビュー、2011年8月3〜6日。コンピューターサイエンス6830の講義ノート。 2011. P. 388–393。

(Kurzweil、2005)Kurzweil R.特異点は近い。 バイキング、2005年。

(Solomonoff、1964)Solomonoff RJ帰納的推論の形式理論:パート1および2。情報と制御。 1964. V. 7. P. 1–22、224–254。

(2003年、Schmidhuber)Schmidhuber J.新しいAI:物理学に関連する一般的なサウンド。 テクニカルレポートTR IDSIA-04-03、バージョン1.0、cs.AI / 0302012 v1、IDSIA。 2003年。

(Hutter、2001)Hutter M.アルゴリズムの確率と逐次決定に基づく人工知能の普遍的な理論に向けて。 Procで。 第12回欧州会議 on Machine Learning(ECML-2001)、volume 2167 of LNAI、Springer、Berlin 2001年。

(Hutter、2005)Hutter M.ユニバーサル人工知能。 アルゴリズムの確率/スプリンガーに基づく順次決定。 2005.278 p。

(Wang、2007)Wang P. The Intelligence of Intelligence // in Artificial General Intelligence。 Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。 スプリンガー 2007. P. 31–62。

(Schmidhuber、2007)Schmidhuber J.GödelMachines:完全自己参照型の最適なユニバーサル自己改良型//人工知能。 Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。スプリンガー2007. P. 199–226。

(Hutter、2007)Hutter M. Universal Algorithmic Intelligence:A Mathematical Top→Down Approach // in Artificial General Intelligence。 Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。スプリンガー2007. P. 227–290。

(Goertzel and Pennachin、2007)Goertzel B.、Pennachin C. The Novamente Artificial Intelligence Engine // in Artificial General Intelligence。 Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。スプリンガー2007. P. 63–130。

(Garis、2007)Hugo de Garis。人工知能における人工脳//。Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。スプリンガー 2007. P. 159–174

(Red'ko、2007)Red'ko VG The Natural Way to Artificial Intelligence // in Artificial General Intelligence。Cognitive Technologies、B。GoertzelおよびC. Pennachin(編)。スプリンガー 2007. P. 327–352。



All Articles