ホーキングは人工知能を人類の最大の間違いと呼んだ

英国の物理学者スティーブン・ホーキングは、彼の記事で 、人工知能からの脅威を過小評価することは人類の歴史における最大の間違いである可能性があると述べた。



この研究の共著者は、カリフォルニア大学スチュアートラッセル大学のコンピューターサイエンスの教授であり、マサチューセッツ工科大学の物理学のマックステグマークとフランクウィルチェクの教授です。 この記事は、人工知能の分野でのいくつかの成果を示しており、自動運転車、Siriの音声アシスタント、およびJeopardyテレビクイズゲームでその人物を倒したスーパーコンピューターに注目しています。



ホーキングが独立系新聞に語ったように:

これらの成果はすべて、今後数十年で私たちを待っているものを背景に消えていきます。 人工知能の作成の成功は、人類の歴史の中で最大のイベントになります。 残念ながら、リスクを回避することを学ばなければ、それが最後になる可能性があります。





科学者は、将来、人間以外のインテリジェンスを備えたマシンが改善される可能性があり、このプロセスを止めることはできないと言う。 そして、これは、順番に、いわゆる技術的特異性のプロセスを開始します。これは、非常に急速な技術開発を意味します。

この記事は、そのような技術が人を上回り、金融市場、科学研究、人々、そして私たちの理解を超えた武器の開発を管理し始めると指摘しています。 人工知能の短期的な効果が誰がそれを制御するかに依存する場合、長期的な効果はそれをまったく制御できるかどうかに依存します。

人工知能の創造が人々にどんな結果をもたらすかを言うのは困難です。 ホーキングは、Cambridge Existential Risk Research Center、Institute for the Future of Humanity、および機械知能と未来の生活の研究機関などの非営利組織以外では、これらの問題に真剣な研究がほとんど行われていないと考えています。 彼によると、私たち一人一人は、未来の発展のための最悪のシナリオを避けるために、今何ができるかを自問するべきです。



All Articles