致死性の人工知能:「未来の兵器」の危険性とは
太古の昔から、人類は戦争を続けてきました。 当初、紛争は原始的なものでした。 古代の人々の部族は土地と食料をめぐって棒や石を使って争った。
現代の戦争では、私たちはすでにドローン、ホーミングシステムを備えたミサイル、電子戦システム、その他のハイテク兵器を使用しています。 しかし、これが限界ではありません。
現在、世界中の数十の最大の軍産複合企業が、人間の介入なしに軍事任務を実行できる自律システムの開発に取り組んでいます。 いいえ、私たちは同名の映画に登場するターミネーターのような擬人化ロボットについて話しているのではありません。 エンジニアたちは、将来的に既存のシステムに実装され、管理への人間の参加を無効にするソフトウェア アルゴリズムを作成しようとしています。
たとえば、今日、ドローンは武力紛争で広く使用されています。 この場合、個々のドローンはオペレーターによって制御され、戦場で特定の UAV 機能を使用する決定を下すのはオペレーターです。
次に、AI ベースのシステムは、周囲の状況を分析するだけでなく、そこに読み込まれた潜在的なターゲットに関するデータに依存してタスクを自律的に実行することができます。
素晴らしいですね。 一方、一部の国はすでにこうしたシステムの軍隊への導入に近づいている。
残る唯一の問題は、そのような軍隊の進化が何をもたらすかということである。
AI ベースのシステムには多くの利点があることは明らかです。 特に、自律型兵器の使用は人的要因を完全に排除するため、多くの場合、さらなる民間人の死傷者や破壊につながります。 さらに、ロボットシステムは、敵対行為に直接参加する必要のない軍人の命を救うでしょう。
しかし、「致死性人工知能」には重大な欠点もあります。 その XNUMX つは、そのようなシステムがハッカーによってハッキングされるリスクであり、これにより最も予測不可能な結果がもたらされます。 さらに、自律型兵器の大量生産により、それらは必然的に非国家組織やテロ組織に利用可能になります。
現在、国連は倫理的およびその他の理由からそのような兵器を制限または禁止する可能性について議論しています。 しかし、そのプロセスは非常にゆっくりと進んでおり、上記の決定が下される前であっても、世界中の複数の軍隊が AI を搭載した兵器を保有する可能性があります。
情報