見出し画像

ついにAIが市民を殺害する事態に…ガザ空爆を指揮していたのは正確性に欠けるAIマシン「ラベンダー」だったと報道

あふれるニュースや情報の中から、ゆっくりと思考を深めるヒントがほしい。そんな方のため、スローニュースの瀬尾傑と熊田安伸が、選りすぐりの調査報道や、深く取材したコンテンツをおすすめしています。

きょうのおすすめはこちら。

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza(イスラエルのガザ空爆を指揮するAIマシン「ラベンダー」)

イスラエルのネットメディア「+972MAGAZINE」と「Local Call」は、イスラエル軍がAIをベースとした「ラベンダー」というプログラムを開発したという調査報道の結果を伝えています。6人のイスラエル情報将校をソースとして、ガザ地区への初期の爆撃で実際に使用され、中心的な役割を果たしたとしています。

記事によれば、この「ラベンダー」というシステムは、ハマスとパレスチナ・イスラム聖戦(PIJ)の容疑者をマークするよう設計され、3万7000人のパレスチナ人とその自宅を暗殺のターゲットとして記録していたということです。

しかしある上級将校によると、「ラベンダー」の正確性は90%しかなく、暗殺の対象とされた人の10%はハマスの軍事組織のメンバーではないことが事前に分かっていたにも関わらず、このシステムに依存していたといいます。

報道が本当だとすれば、懸念されていた「人を無差別に殺害するAI兵器の脅威」がついに現実になってしまったということです。

しかもハマスの工作員だとする認定は、それらしい特徴や行動から割り出したもので、推測でしかありません。それが分かっていて使用し、幹部だけではなく「それらしい人」を3万7000人もターゲットにする行為は、「多くの民間人の犠牲もやむを得ない」というこの戦争の異常さを物語っています。その違和感があるからこそ、イスラエル軍の関係者も取材に応じていると見られます。

今回の「+972MAGAZINE」の記事は、このメディアを継続的にウオッチしているジャーナリスト・川上泰徳さんによるYahoo!エキスパートの記事で知りました。そちらのリンクも張っておきます。

川上さんも、過去の戦争と比べても民間人の犠牲の多さの異常性を指摘し、イスラエルの〝友好国〟であるはずの日本も、本当の意味での責任を果たせているのかと疑問を呈しています。

事実上の「無差別殺人兵器」が使われたのであれば、その是非は国際的な場で使用の妥当性をいますぐにでも議論されるべきですし、原爆などと同様に歴史の重要な記録として残しておくべきものでしょう。(熊)

(+972MAGAZINE 2024/4/3)
(Yahoo!ニュース 2024/4/9)