Googleの責任者は、AIに対する恐怖は「完全に正当化される」と考えています





人工知能の分野で最大の企業の1つであるGoogleのCEOであるSundar Pichaiは、今週のインタビューで、テクノロジーの有害な使用に対する懸念は「完全に正当化された」と述べました。その使用を規制するすべての責任。



ワシントン・ポストとの会話で、ピチャイは、ロボモービルや疾患認識アルゴリズムなどの革新の基盤である新しいAIツールは、企業が倫理的枠組み定義し、このテクノロジーの悪用方法を慎重に検討する必要があると述べました。



「テクノロジービジネスは、最初に作成してから修正することはできないことを理解する必要があると思います」とピチャイは言いました。 「うまくいかないと思う。」



技術の巨人は、AIが「その目標とともに」人類に害を及ぼさないようにしなければならない、とピチャイは言いました。 彼は技術の長期的な利点について楽観的であると述べたが、AIの潜在的なリスクの評価は、技術が侵入監視の実装、致命的な武器の作成、および誤った情報の拡散に使用できると主張する技術評論家の一部と一致しています。 SpaceXの創設者やテスラのElon Muskなど、他のテクノロジー企業のマネージャーは、AIが「核爆弾よりもはるかに危険だ」と大胆に予測しました。



GoogleのAIテクノロジーは、物議を醸す中国の会社プロジェクトから、会社の一部門であるYouTubeでの憎悪と陰謀の理論まで、あらゆるものの中心にあります。 ピチャイは来年この問題を解決すると約束した。 GoogleがAIを使用することを決定した方法は、会社の従業員の間で最近の不安を生み出しています。



ピチャイの自主規制の呼びかけは、議会でのスピーチに続いて行われました。議会で、議員は誤用やヘイトスピーチ[ヘイトスピーチ]の拡散の媒介として、その誤用に応じてテクノロジーの使用を制限すると脅しました。 AI側からの可能性のある脅威の存在の彼の認識は非常に重要でした。インドで生まれたこのプログラマーは、以前は人間の監督なしで学習と意思決定が可能な自動化システムを導入した結果が世界をどのように変えるかをしばしば宣伝していたためです。



ピチャイはインタビューで、世界中の議員がまだAIの効果とその州の規制の潜在的な必要性を認識しようとしていると述べた。 「時々、人々が短期および中期に発生する可能性のある変化の大きさを過小評価することを悩ませます。これらの問題は実際には非常に複雑だと思います」と彼は言いました。 マイクロソフトを含む他の大手テクノロジー企業は最近、テクノロジーを作成している企業とその使用を監督する政府の両方からAI規制を採用しています。



しかし、適切な処理により、AIは「途方もない利点」を提供できます。ピチャイは、医師が医療記録を自動的にスキャンすることで眼疾患やその他の疾患を認識するのを支援するなど、説明できます。 「開発の初期段階でテクノロジーを規制することは困難ですが、企業は自主規制に取り組むべきだと思います」と彼は言いました。 -したがって、AIの一連の原則を積極的に表明しようとしています。 すべてを正しく行ったわけではないかもしれませんが、この対話を開始することが重要だと考えました。」



2004年にGoogleに入社し、CEOを引き継いだピチャイは、1月にAIを「人類が取り組んでいる最も重要なものの1つ」と呼び、「電気や火。」 しかし、自力で動作するマシンを改善するための競争は、シリコンバレーの企業精神、つまりFacebookがかつて説明した「速くして、ダメージを与える」が、仕事や損害を排除する強力で不完全なテクノロジーにつながる恐れがあることをよく知っています。人々に。



Google自体でも、AIを作成しようとする試みは議論の余地があります:同社は今年、国防総省との契約に関する作業について批判の嵐に直面しました。その下では、車、建物、およびその他のオブジェクトに自動的にタグを付けることができるAIが軍事ドローンで使用されます。 一部の従業員は辞めさえし、その理由を「軍事事業」における会社の収益と呼んでいます。



ピチャイは、 従業員からのこの反応に関する質問に応えて、これらの労働者は「私たちの文化の重要な部分である」と新聞語った。 彼らは自分の言葉を言う機会があり、これは会社にとって重要です。これが私たちの大切なことです」と彼は言いました。



会社がこの契約を更新しないと発表した発表後の6月に、Pichaiは、AIを作成する際の一連の倫理原則を明らかにしました。これには、危害を引き起こしたり、人権を侵害したり、人々を監視したりするために使用できるシステムの開発を禁止することが含まれていました」国際的に認められた基準に違反しています。」



同社は、損害に使用できるAIツールを一般使用向けにリリースしたことで批判されています。 2015年にリリースされたGoogleの内部機械学習システムであるTensorFlowソフトウェアパッケージは、AIの大規模な開発を加速するのに役立ちましたが、偽のビデオの作成を自動化するために使用されました。



グーグルとピチャイはこのリリースを個人的に擁護し、技術の普及を制限することは一般の人々がそれを十分に慎重に制御できず、開発者や研究者がその能力を改善して彼女に利益をもたらすことができないと主張した。



「時間の経過とともに技術の開発に成功したため、倫理的問題と認知バイアスを議論し、同時に開発することが重要であると考えています」とピチャイはインタビューで述べました。



「ある意味では、開発の初期段階でコンピューターサイエンスの分野からではない科学者を引き付けるために、倫理的なプラットフォームを開発したいと考えています」と彼は言いました。 「このテクノロジーは人類に影響を与えるため、人類をより積極的に関与させる必要があります。」



ピチャイは、AIパラメータを設定する初期の試みと、この分野の初期段階での遺伝子研究を制限するための科学界の努力とを比較しました。 「多くの生物学者が、技術を開発すべき場所を示す区別をし始めました」と彼は言いました。 「学術コミュニティは積極的な自主規制を取り入れており、それは私には非常に重要であるように思われます。」



Googleディレクターは、このようなアプローチは自立兵器の開発に絶対に必要だと言いました-そして、この問題はテクノロジー企業のディレクターと従業員を苦しめています。 7月、Googleなどの企業を代表する数千人の業界労働者が、殺すようにプログラムできるAIツールを禁止する請願書に署名しました。



Pichai氏は、 WPの記事に記載されているYouTubeが陰謀を企てているいくつかの陰謀論を「うんざりする」と考え、問題のあるコンテンツを認識するシステムの改善に取り組むことを明らかにしました。 4月に登場してから数百万回を超えるこれらの動画では、ヒラリークリントンと彼女の長年の助手であるヒュームアベディンの根拠のない告発について話しました。彼女は少女を攻撃し、彼女を殺し、彼女の血を飲みました。



ピチャイは、彼自身が議会で質問されたこれらのビデオを見なかったと言い、そのようなYouTubeの欠点は、不適切なコンテンツシステムまたはビデオを削除する必要性を評価する規則を認める制限の結果であるかどうかを報告することを拒否しました。 しかし、彼は「2019年には、この分野で私たちの側からより多くの仕事が見られるでしょう」と付け加えました。



ピチャイはまた、インターネットの中国支配セグメントで新製品を開発しようとするグーグルの試みを予備的なものとして説明し、どんな種類の製品で、市場に出回る可能性があるとしても、それをまったく述べなかった。



彼は「プロジェクトドラゴンフライ」と呼ばれ、政治的反対者に耐えられない市民の政府による監視に対するGoogleの支援の可能性を警告する従業員や権利活動家からの強い反発を引き起こしました。 Googleは、「 天安門広場の虐殺 」などの重要な単語を検索したときに中国当局者が検索できる製品をGoogleが作成する可能性についての質問に応えて、ピチャイはそのような判断を下すには早すぎると述べました。



「これらはすべて仮想的な考慮事項です」とピチャイは言いました。 「私たちはこの状況からひどく離れています。」



All Articles