Scribble at 2026-01-08 09:59:58 Last modified: 2026-01-08 10:11:50

フェイ=フェイ・リーの提唱で有名になった World Model だが、これには幾つかの理解というか期待があって、ヤン・ルカン(Yann LeCun)によると、これは AI が推論を進めるための基礎となる「環境」のようなものだと言われる。

現在の大規模言語モデルを基礎とした生成 AI の推論は、或る単語からスタートして、次に後続する単語を統計的に次々と配置することでアンサンブルを作る。でも、それらの単語どうしの結びつきは単なる統計的な「距離」の近さを整合性や妥当性の根拠としており、そのような距離を定義しているセマンティクスが「われわれの意味」を形作るとは限らない。モデル理論上の「同型」である保証すらないのだ。これは、もちろんハルシネーションが起きることでも分かる。

ヤン・ルカンは、推論の背景知識として World Model を与えることが「われわれの意味」においても整合的で妥当性がある推論を保証するために重要だと考えているようだ。

でも、僕はこのような見通しには賛同しない。理由は簡単で、これは「フレーム問題」に対する論点先取に過ぎないからだ。こういう条件を与えておけばフレーム問題は起きないという思い込みを「生成 AI へ与える前提条件」として語っているだけのことだからである。そんなことが最初から分かるくらいなら、そもそもフレーム問題など考える必要はないのだ。Wordl Model にどれだけの情報を詰め込むのかは知らないが、もし「これだけ与えたらよい」と分かっている条件でフレーム問題が片付くなら、この問題は単なるデータ量の話に帰着してしまうからである。

こういう話は、「AI をヒトの知能に近づける」という、僕に言わせればどうでもいいタスクに縛られた発想をするから起きてしまうのだと思う。機械学習の初歩的な段階ではニューラルなモデルを基準にしていたから理解はできるものの、AI が既にヒトの知性を超えるパフォーマンスを発揮できるタスクがあると分かっていれば、もうそれだけで AI をどんどん進展させ活用すればいいのであって、何もヒトに近いかどうかを測る必要なんてない。もうそのタスクに関しては AI がヒトを凌駕するのだから、それだけで「良いこと」ではないか。そこでヒトへ近づけようとするのは、単なる退化というものであろう。

結局、ヒトの知性に近いかどうかという基準に固執するのは、出てきた成果の是非をヒトが理解して評価できなくてはならないと思い込むからだ。実際にはデタラメかもしれない成果を、ヒトに理解できないというだけで尊重してしまえば、ヒトは危険に晒されるという不安があるからなのだ。もちろん、生死に関わることなど重大なタスクについてはそうかもしれないが、現実のヒトはたいていがそんな World Model なんてもっていない。現在のアメリカ大統領なんて、たぶん World Model に含まれるであろう「人権」という概念すらもっていないはずだ。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る