「機械の反乱」の脅威が研究される





英語のインターネットで最も話題になっているニュースの1つは、ケンブリッジ大学のグローバルリスク研究センター(CSER)の差し迫った立ち上げの発表に伴う、哲学のヒュープライス教授とのインタビューでした。



BBCnewsのような非常に保守的な視聴者がいるニュースサイトでさえ、関連ニュースの下でのコメントの数は数百に達します。



本質を思い出させてください:存在リスク研究センター(CSER)は、バイオテクノロジー、ナノテクノロジー、核研究、人為的気候変動、人工知能の開発が潜在的に抱えるグローバルなリスクを調査します。 センターの創設者は、哲学のヒュー・プライス教授であり、ケンブリッジ大学のマーティン・リース教授であり、スカイプの創設者の一人であるタル・大学で理論物理学の学位を持っているジャアン・タリンです。



今日の人類の進歩は、技術的発展によるものではなく、進化プロセスによるものではありません。 これにより、人々はより長く生き、より速くタスクを完了し、多かれ少なかれ自由に破壊を手配することができます。



ただし、コンピューティングプロセスの複雑化により、最終的には単一の人工知能(AI)が作成されることになります。PriceとTallinnは確信しています。 そして、この「普遍的な心」がコンピュータプログラムを独自に作成し、独自の種類を再現する技術を開発できるようになると、決定的な瞬間が来るでしょう。



「例えば、ゴリラを取る」とプライス教授は示唆している。 「彼らが消える理由は、人々が彼らの破壊に積極的に関与しているということではなく、私たちに合った方法で環境を管理しているが、彼らの存在に有害であるからです。」



類推は透明性以上のものです。 「ある時点で、今世紀または次の時期に、知性が生物学を超えたとき、人類の歴史の中で最も大きなねじれの1つ、おそらく宇宙の歴史に直面しなければなりません」とプライス教授は約束します。 「自然は私たちを予見していなかったので、私たちはAIを当然のことと考えるべきではありません。」



ロボット工学とハイテクに関連する専門家は、ほとんどの場合、教授の発言について非常に懐疑的でした。 アルゴリズムのソフトウェアのクラッシュとエラー-理解可能で、予測可能で、条件付きで具体的なもの-は、まだ存在していない事実の抽象的な脅威よりも人間の心にとってはるかに簡単に知覚できます。



ただし、AIに関連する問題は、ケンブリッジ教授だけではありません。 2001年以来、米国にはSIAIとして知られるSingularity Instituteという非営利組織があります。 彼女の関心には、「知的爆発」に関連する潜在的な危険性の研究と「非友好的な」AIの出現が含まれます。 研究所の共同設立者の1人であるEliezer Schlomo Yudkowskiは技術的特異点に関する研究で広く知られています (技術的進歩が人間の理解の範囲を超えた瞬間)。



Yudkowskiは、「ポジティブおよびネガティブなグローバルリスクファクターとしての人工知能」(ロシア語利用可能)で、次のように書いています。「グローバルな大惨事を引き起こす方法の1つは、誰かがボタンを押して、このボタンの機能を誤って考えていることですシステム全体がどのように機能するかを深く理解していない研究者と、作業アルゴリズムの同様の融合によってAIが発生する場合...友好的なAIを作成する方法の無知は、自分が知らないことを知っていれば致命的ではありません。 AIは友好的であるという誤った信念は、グローバルな大惨事への明らかな道を意味します。」



そして少し幻想的な現実-今年の8月に、Business Insiderはハーバード大学のバイオエンジニアによる「サイバーフレッシュ」の作成を発表しました。 この研究の結果はNature Materialsに掲載されました。



この設計は、ナノワイヤとトランジスタの複雑な構造であり、その上に人間の組織が構築されます。 Cyber​​fleshは、人体の心拍のようなデータを追跡および送信できます。 「これにより、電子的、無機的システムと有機的、生物学的システムとの境界を実際に曖昧にすることができます」と研究チームの責任者であるチャールズ・リーバーは述べました。



さらに、タリンとプライスによる記事「 AI-箱の中に入れてもいいですか?」 「。



All Articles