サイエンスフィクションの愛好家は、Isaac Asimovによって策定されたロボット工学の3つの法則をよく知っています。
- ロボットは人に危害を加えることはできません。また、行動を起こさずに人を傷つけることはできません。
- ロボットは、人によって与えられたすべての命令に従う必要があります。ただし、これらの命令が第一法に反する場合を除きます。
- ロボットは、第一法則と第二法則に矛盾しない範囲で安全性に注意を払わなければなりません。
これらの法律は本に適用されますが、実際には適用されません。 幸いなことに、これまでのところ、オペレーターの制御下でのみ、オフラインで敵を攻撃できるロボットはありません。 しかし、技術は危険なポイントに近づいている、と一部の専門家は言います。
たとえば、サムスンTechwin SGR-1モデル(写真)は、北朝鮮との国境の非武装地帯を保護するために使用されます。 装備-5.5 mm機関銃と40 mm自動グレネードランチャー。 ロボットは半自動モードで動作し、オペレーターのコマンドでのみ発射します。
動作中のSGR-1
米国を含む一部の政府は、戦場で兵士をロボットに置き換えることで兵士の命を救う機会を感じていると、ヒューマン・ライツ・ウォッチの武器部門のスティーブ・グースは述べています。 一見、このような選択肢は人道的な選択のように見えますが、専門家はコンピュータービジョンアルゴリズムの不完全な操作に関連する避けられないエラーについて警告します。 状況によっては、人でさえ武装した敵と民間人の違いを正確に判断できないため、コンピュータビジョンシステムは誤検知を起こす可能性が高いでしょう。
ヒューマンライツウォッチは、50ページのレポート「 人類の損失。 制御された機械から完全に自動化された機械に進化する軍用ロボットの概要を含む、 キラーロボットに対するケース 。 人権活動家は、国際的な武力紛争の犠牲者の保護に関する、1949年8月12日のジュネーブ条約の追加議定書 36条を含む国際法を遵守するよう、すべての国に要請します。
セクション36
新しい武器
新しい種類の武器、手段、または戦争方法を研究、開発、取得、または採用する場合、高度な締約国は、一部またはすべての状況下での使用がこの議定書またはその他の禁止事項に該当するかどうかを判断する必要があります高締約国に適用される国際法。
新しいタイプの軍用ロボットの合法性の考慮は、デバイスのコンセプト/設計の開発段階以降で既に行われるべきですが、いずれにせよ-大量生産の開始前に、そうでなければジュネーブ条約に矛盾します。
ヒューマンライツウォッチの武器部門の専門家によると、米国陸軍は少なくとも1種類の武器に関する条約に違反しています。 ヘルファイアミサイルを装備した無人航空機プレデターについて話している。
これら2種類の武器は互いに独立して評価されましたが、 ICRCの議定書第36条の説明では、「大幅な近代化」の後、新しい種類の武器は国際法の遵守について再テストされるべきであると述べました。 ドローンにヘルファイアミサイルを装備することは、明らかに「大幅な近代化」の定義に該当します。
人権団体の専門家は、国際法では自律戦闘ロボットの使用を直接禁止することはないと述べています。 ただし、プロトコルの第48条および第51条(4)に準拠できる最新のコンピュータービジョンシステムはありません。
セクション48
基本的な基準
民間人と民間人の尊重と保護を確保するために、紛争の当事者は、民間人と戦闘員、および民間人と軍事施設を常に区別し、したがって軍事施設に対してのみ行動を指示する必要があります。
セクション51
市民保護
4.無差別攻撃は禁止されています。 無差別攻撃には次のものがあります。
a)特定の軍事目標を目的としない攻撃。
b)方法または行動手段を使用した攻撃
特定の軍事目標に向けられない軍事作戦; または
c)戦争の方法または手段を使用した攻撃。この議定書で要求されているように、その結果を制限することはできません。
そのため、そのような場合、軍事施設や民間人、または民間施設に区別なくヒットします。
問題は、将来、技術が十分に開発されたロボットが、少なくとも理論的には第48条および第51条(4)に準拠できるかどうかです。 それでも、民間人と武装した敵の違いは根本的な問題の1つです。
この問題についてはさまざまな意見があります。 一部の専門家は、強力なAIでもそのような決定を下せると信じています。 他の人は、人工知能は定義上、これができないと言います。なぜなら、それはとりわけ、人の意図と彼の感情状態の評価を必要とするからです。 例としては、子供たちに駆け寄って叫び声を上げ、兵士の近くでマシンガンで遊んでいない母親です。 コンピュータービジョンシステムの観点から見ると、武装した2人の敵と、叫び声で近づいている3人がいます。
ヒューマン・ライツ・ウォッチは、人工知能の専門家が合意に達する前に、世界中の軍隊が自律戦闘ロボットの使用を開始する可能性があることを懸念しています。 したがって、組織は、完全に自動化されたモードで動作できる武器の開発と使用を明示的に禁止する新しい国際協定の採択を求めています。
これは、Isaac Asimovのロボット工学の最初の法則が、その作成から70年後に実際に実現することを意味します。