Scribble at 2024-04-05 18:48:55 Last modified: unmodified

添付画像

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

当サイトでこれから公開を予定しているコンテンツとして、もちろん僕自身が情報セキュリティの実務家として積み上げてきたささやかなキャリアからも、PET あるいは既に幾つかページを公開している秘密分散法(secret sharing scheme)とか疑似乱数を取り上げようと計画している。ただ、そうした技術について、やはり科学哲学者としての見識なり経験から言って、どうしても外せない疑問というか論点というものはある。それは、匿名化や乱数化によって情報を安全に利用するというコンセプトそのものが破綻しているのではないかということだ。できもしないことを、計算上はこうなっているなどといった形式的な条件だけで可能だと言っているようでは、やはり現実に押し流されたり押し潰されてしまうであろう。暗号化や匿名化は、大学の研究室やカンファレンスだけで扱われているだけではなく、現実にわれわれの生活に応用され、或る意味ではわれわれの生活を支えるようになっているから、なおさらだ。

さて、上記は AI でターゲットを自動選別するという、いかにもモサドがやりそうなことだとは思うが、もちろん中国でも監視カメラを自動識別システムを使っているという報道は、既に一昨年の話題として日本でも報じれられているので、さほど驚くような話でもない。ましてや、ここ最近の紛争で分かるように、どれほどホロコーストを経験していようと人、なかんずく集団としての民族や国家が本質的に善良だったり悪辣だったりするなんてことはないわけであって、状況が変われば今度はユダヤ人がナチスと同じことをやってのけるわけである。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Twitter Facebook