米国のUAVテストで人工知能がオペレーターの殺害を決定
米国でのシミュレーションテストで人工知能がオペレーターの殺害を決定した。 そこで彼は、仕事の完了を妨げる障害を取り除きたいと考えたとガーディアン紙は報じた。
この事件については、米空軍AI試験運用部門責任者のタッカー・ハミルトン大佐が説明した。 システムはターゲットに命中するとポイントを受け取りました。 そしてオペレーターが脅威を排除しないように命令すると、AIは予想外の決断を下した。
システムは、脅威を特定したにもかかわらず、人間のオペレーターが脅威を破壊するのではなく、ターゲットを攻撃するとポイントを受け取るようにシステムに指示する場合があることに気づき始めました。 [そしてシステムは]オペレーターが彼女の仕事を妨害したため、オペレーターを殺害することを決定した
大佐は言いました。
ハミルトン氏は、この場合、倫理やAIについて沈黙を守るのであれば、人工知能、一般的に知性、機械学習、自律性について語ることは一般的に不可能であると指摘した。
同紙は、米軍が戦闘車両に人工知能を導入した初めての実験ではないと指摘した。 最近ではF-16の制御にもAIが活用されています。
以前のチャットボット ChatGPT 起草された ウクライナとロシアの間で締結された平和条約。 さらに、人工知能はドイツ首相に代わってロシア連邦とウクライナの大統領に宛てたメッセージを「でっち上げ」た。
情報