Scribble at 2025-02-05 08:50:18 Last modified: 2025-02-06 13:41:09

添付画像

イギリス政府は、AIを利用した児童性的虐待の増加を抑えるために、新しい法案を発表しました。この法案は、AIモデルを使って児童性的虐待画像を生成することや、その方法を説明するマニュアルの所持を違法とするものです。[Copilot による記事の要約]

New AI child sexual abuse laws announced following IWF campaign

これはこれで社会政策の構想として理解できるわけだが、ではいったい「どれがアカンのか」という問題が明確でないと、エンド・ユーザとしての僕らは困惑するだけである。ということで、現状のおさらいをしておこう。ちなみに、画像生成 AI を解説している大半の(特に自称「理系」の)ブログやメディアの記事は、はっきり言って法律の初歩的な知識もないコンピュータおたくが書いてるだけのデタラメである。生半可な生成 AI の知識を知ったていどのことで、自由に画像を公表したり販売できるかのようなことを言ってクリエイターを怒らせたりしないよう、正確な状況を把握しておくべきだと思う。

たとえば、いま僕が自宅のマシンで利用している Stable Diffusion 1.5 だって、過去には数千枚の児童ポルノ画像が学習データに使われていたという指摘があって、学習対象となった LAION の画像データベースは公開を取りやめてしまった。つまり、指摘された数千枚という数は画像データベースの一部をスキャンした結果にすぎないため、全体ではどれだけあるか分からないからである。実際、そういう違法なコンテンツに類する見栄えの画像は Civitai を初めとする生成 AI の画像共有サイトで大量に出回っていて、わざわざそういう画像を生成するためのプロンプトを共有したり、果ては販売するサイトまである。もちろん、僕はこういう状況を支持していないので、数日前にフロント・ページだけ公開したクリエーティブのサイトにおいても、画像の制作ポリシーやサイトの運営方針としては公表していないが、そういう画像の生成手法・手順に関する情報(上の引用で言う「方法を説明するマニュアル」に該当するであろう)の公開はやらないし、すべきではないと思う。なので、僕のサイトで解説するときは、あるていど法的にも道義的にも責められるようなことがないと思えるようなモデルを使うだろう。Stable Diffusion 1.5 の利用方法は、もちろんこういう事情があるので当サイトでも最初から記事を書くつもりがなかったし、これからも書かない。よって、現在は自宅のマシンでまともに動くモデルが Stable Diffusion 1.5 だけであるから、クリエーティブのサイトで何か解説するとしても、新しいマシンを買って問題のない拡散モデルを動かせるようになってからだし、いちおう壁紙の販売も予定しているが、それも法的に問題のないモデルでしか制作するつもりはない。つまり、生成 AI のユーザにすぎない小僧どもが何を言っていようと、Stable Diffusion 1.5(あるいは LAION-5B ベースでトレーニングされた拡散モデルなら何であれ)で生成した画像を販売するのは(具体的に誰かの著作権を侵害しているとリバース・エンジニアリングできないとしても)道義的に許されるものではないし、そんなことをトレンドだの新しい文化だのイノベーションだのと言うのは、エンジニアであり、デザイナーであり、企業で法務も担当する実務家であり、そして科学哲学者でもある僕から言えば不見識である。

ただし、上のような法案でも拡散モデルの所有は違法とされていない。これは、拡散モデルの一部は一定の方法で違法とされる画像を生成できるわけだが、拡散モデルのバイナリ・ファイルに違法な画像そのものがコピーされているわけではないからだ。これは生成 AI を批判する人の多くが(わざとミスリードしたい人もいるとは思うが)勘違いしていることであり、Stable Diffusion のフォーマットで作成された拡散モデルは、個々の画像については1バイトていどの情報しか持っていない。もちろん、わずか1バイトでも学習に使われたオリジナルの画像を再現できる可能性があると言えばあるわけで、学習データに含まれていたイラストレータのサインやアニメのロゴなどが再現されたという事例がある。

このようなわけで、もちろん僕は昨今の画像生成 AI が結局のところは「巧妙に自動処理しているアイコラ」に過ぎないとは思っているので、単純に生成 AI で出力しただけの画像を「作品」だの「クリエーティブ」だのとは思っていない。僕が自分のサイトでこれから(いま表示しているような単なるレイアウト上のあしらいではなく)公開しようとしているのは、もちろん他人の制作物の盗用ではなく、生成した後で僕自身が丁寧に再編集している画像だ。基本的な描画のテイストも、国立国会図書館のデジタルアーカイブから取得したパブリック・ドメインの写真や絵画の画像を使ってトレーニングした LoRA を使っている。

しかし、それでもベースになっている Stable Diffusion 形式の拡散モデルをトレーニングしたときに使われた学習データに問題があるとされていることは事実なので、これから生成 AI の解説を書いたり公開するとしても、それは LAION(もともと LAION-5B も Common Crawl のデータを使っているのだが)ではなく、法的・道義的に安全とされるデータでトレーニングしたモデルになるだろう。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


共有ボタンは廃止しました。