Scribble at 2023-06-23 08:03:10 Last modified: 2023-06-23 09:37:51

添付画像

Joy Buolamwini って、IEEE Spectrum の "The AI Apocalypse: A Scorecard How worried are top AI experts about the threat posed by large language models like GPT-4?" でも AI のエキスパートの一人として紹介されていたのだけど、この人ってどうも何をやってるのかわからないんだよね。当人のサイトを見ても、なんだか過剰な演出が優先で女優のサイトを見てるようだし、researcher として評価されたんだろうけど、publication のページもわかりにくい。ひょっとして、業界から泳がされてるだけの「ダイバーシティ要員」なのか?

ちなみに、IEEE で公開されている論説にはニック・ボシュトロムやマックス・テグマークやエリザー・ユドフスキーといった、AI の専門家というよりも思想家に近い(あるいは皮肉な意味で「セレブ」と言った方がいいのか)も含まれているが、これまた皮肉なことにそういうセレブたちに限って、揃いもそろって AI 脅威論を唱えているらしい。

僕は、AI の性能あるいは AI が出力する結果そのものには大して脅威を感じていない。自分のマシンで Stable Diffusion のような深層学習モデルのシステムを気軽に使えるようになったのは驚くべきことだし、単純に楽しいけれど、やはり限界があるのも確かだと思う。そして、こういうモデルを元に生成された画像が大量にオンラインで出回るようになると、新しく学習する次世代のモデルは既存の画像を「教師」にする他にないのだから、こういうプロセスを繰り返せば convergence が起きるのは統計学の常識であろう。仮に CFG 値でデタラメな因子を入れたとしても、それを受け入れる側の人間が拒絶してしまえば、どのみち結果として残らないのだから、やはりそこにはランダムな要素が加えられると言っても一定の制約があり、そしてそれこそが convergence の一つの原因にもなる。確かに、デタラメさを許容していくのも一つの選択肢ではあるけれど、芸術家が偶然の要素を取り入れるというアプローチは、そういう機械的なデタラメさをデタラメに加重する処理とは別のことであって、腕が6本あってもいいじゃないかという話を受け入れるかどうかでアートとしての偏狭さや自由さを測るなんて話ではないだろう。

したがって、スタンダートなことを言って締めくくるのは気が引けるけれど、やはり「AIの脅威」とは「AIを使う人間の脅威」に他ならないのであって、自律的にモデルを改善していく(そして何が「改善」であるかも自律的に考える)ような AI が存在していない以上、いやそれが原理的にも難しいか不可能である以上、リスクを議論するなら利用者や開発者のリスクを最初に考えるべきだと思う。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Twitter Facebook