Scribble at 2026-05-04 09:17:22 Last modified: unmodified

添付画像

Springer でオンライン・ジャーナルを眺めていて思いついたことなのだが、先の Artificial Intelligence Index Report 2026 について、もう少し書いておこう。

データが枯渇するとはいえ、今後も研究成果は増えていくし、AI を利用して成果が出てくる効率も上がる。解析の方が速いのは、研究プロセスと比べて結果だけを扱っているのだから当然だ。そして、学問や技術を学ぶ人の学習や教育だって、それまでの成果をショートカットしたり効率よく身に着けたり頭に入れるという意味では、AI のトレーニングとは違うプロセスだが効率よく成果を学び、そして次の成果を生み出してきたのである。したがって、寧ろ AI による解析の方法を色々と試したり、解析の結果をどう利用するかの基準を色々と試すことに時間がかかるし、時間をかけるべきだし、時間をかけなくてはいけない時代に入っていくのだろうと思う。ここまでは既に議論した。

実際、データの枯渇が懸念される一方で、少数のパラメータで特定のタスク、たとえばタンパク質の構造予測やゲノミクスなどにおいて、巨大な LLM を凌駕する専門の LLM が登場している。これは、解析手法の工夫が量に勝るケースだ。今後も、こういうケースは増えていくはずである。それに、これは企業において生成 AI を使っている状況から見ても当然のことだろう。企業において利用するためのデータは、既存の AI 企業に渡せるわけではないからだ。すると、企業ごとの用途に特化した AI が必要である限り、単純にパブリックな AI のサービスが強力になっていくこととは別の流れで企業内の AI も発展していき、その基準やデータの増減は必ずしも公のトレンドとは一致しないし、しなくてもいいのだ。

それから、安全性を高めると正確性が低下するといった、AI に対する評価基準どうしでの相反する関係が明らかになってきているという。どの基準を優先して利用するかという判断の枠組みの構築に技術開発以上のリソースが割かれ始めているとも言える。これも、単に新しく扱うデータが減ってスケーリング則が通用しなくなるからといって、課題がなくなるわけではないことを示している。

これは先の落書きの繰り返しとなるが、そもそも、スケーリング則(学習するデータが増えれば増えるほど AI の性能が向上する)なんてものは、従来の学術研究や技術開発においても簡単には成立してこなかったわけである。僕らのように大学院の博士課程まで進むと、修士課程(博士課程前期課程とも言う)あるいは学部課程の後輩が作成する修士論文や卒業論文のレビューだとか指導を教授から任されることがあって、神戸大学に在籍していた頃は何人かの指導をやった経験がある(これは TA とは別の仕事なので無報酬だが)。まず、僕自身が長い文章を書き、そしてそのために大量の文献を集めて読むので、単純に資料の数が多いだけでは扱いきれなかったり、個々の資料の扱いが雑になることを経験から知っている。なので、後輩が見せてくれる卒論や修士論文についても、やたらとたくさんの資料を並べて見せるだけの「はったり」はすぐにわかる。かといって一冊の本を丁寧に読むことだけに固執しては、それこそただの読書感想文になってしまう。その著作物を他人がどのように論評していたり、読んで自分の思ったり考えたことをどのように評価し論じているかを加味した議論が必要だ。

ちなみに、これは人文系の研究に対する誤解としてよくあることなのだが、人文系の学問においては、或る著作物を読んだ「感想」なんてものは大して重要でもないし、役に立たないのである。したがって、X などでは歳時記のように「現代の古典」だの「俊永の傑作」だの「知の巨人による新著」だのと軽薄なフレーズで新刊書を宣伝したり、それらを無料で読んでいるだけの人々が色々な感想を X で投稿したり、あるいは新刊書の帯にコメントするわけだが、ああしたものは学問とか思想とか、とにかく真面目な議論や研究や思考とは関係のないものであって、タダ飯を食わせてもらってゲップしてるのと同じ程度のことなのだ。

ともかく、データが多ければ多いほど「良い成果」が出るなどという短絡は、少なくとも博士課程に進学するていどの経歴があれば誰も信じていないわけで、世の中には参考文献に大量の資料を並べる駄作の研究書やゴミのような本が山ほどあることを知っているのだ。したがって、スケーリング則が通用しないなんてことを重大な問題であるかのように騒いで見せても、学術研究者であればなおさら、そんなことに脅威を感じたりはしないわけである。寧ろ、そんなことに疑問もなく悩んだり騒ぐこと自体が知識や学問や技術や文化というものの創造だとか醸成だとか発展について、その当事者だった経験が殆どない未熟者の議論をしている証拠だとすら言える。

次に、僕が思うに AI の研究や開発はヒトの思考や推論や知能を目指すべきではないのだ。そもそもヒトの思考にも間違いがあり、良し悪しや優劣など、いや良し悪しや優劣だけでは語れない多様な思考がある。ヒトの思考なり理解なり知能の仕組みを正確に真似できるようになっても、ヒトの認知能力にある脆弱性や偏りを再現するだけになるだろう。寧ろ、ヒトとは異なるプロセスで何かを導き、それが文章だろうと曲だろうと画像だろうと僕ら自身から見て参考になることがあるからこそ、ヒトの思考や判断と同じような責任は負わせられないし信頼すべきでもないが、それでも活用する独特の価値があるのだ。AI はヒトの知性を映す「鏡」を目指すべきではなく、ヒトが到達できない死角を照らし出す別の「光源」であるべきだというのがスタンフォード大学のリポートの行間から読み取れるメッセージだと思うし、僕もそのように考えている。現在の AI が、論理や計算において人間を凌駕しながらも、時刻の読み方といった生活の実感において決定的に欠落しているという事実は、処理のプロセスが根本的にヒトの認知とは異なるからこそ、ヒトにはない視点を提供できるという主張を強力に補完する事実なのであって、これをもって「AI はヒトになれない」などという与太話を語って喜んでいる場合ではないのである。

さて、Springer でジャーナルを眺めていて、上のような議論をあれこれと巡らせていたのだが、或る学術雑誌は、impact factor が "1" であったりする。「インパクト・ファクター」というのは、その雑誌に掲載された論文の数と、それらの論文が引用されている回数(同じ雑誌の別の論文でもいい)とで算出される影響度のようなものであり、これが "1" というのは、その雑誌に掲載された論文は他の論文に平均して1回は引用されるということを意味している。もちろん、これは対象年度が条件として設定されている。そうしないと、何か絶大な影響力がある有名な論文が1本あるだけで、他に全く引用されないゴミのような論文ばかり掲載される雑誌であっても、何年にもわたってインパクト・ファクターが高いままになってしまうからだ。で、他にもいろいろな問題があって(IF を指標として編集者などの評価が決まったりする業績主義で編集方針が商業主義的あるいはセンセーショナリズムに走ったりする)、あまり真面目に IF を受け取る人はいない。だが、一般論として言えば、特に人文・社会系の論文は、ジョークのネタにもなることがあるとおり、「査読者と本人しか読んでいない」と言われるほど、実際には殆ど読まれていない。

ということであって、学術研究の成果とは言っても実際には殆どの論文が読まれてはいないのである。それに比べて生成 AI の学習は、1本の論文がデータ全体の特性に与える影響は小さいものの、データとして取り込まれているという点では確実に影響が加わる。しかし、既存の研究と同じく、取り込んだだけで成果を十分に活用したと言えるわけではなく、それは既存の紙の論文を読んでいた時代においても同じことが言える。だからこそ、過去に発表された論文を「発見」するような事例があったり、あるいは過去の論文を読みなおして参考にしたりする事例があったりするのだ。こういうわけで、僕にはマスコミや素人が単純なスケーリング則の牧歌的なイメージだけで騒いでいるようなデータの「枯渇」とされる状況が、それほど深刻な問題だとは思えない。すべての文献をデータとして取り込もうと、われわれにはやるべきこと、やれることが幾らでも残っているのである。そして、それ(現状なり限界)を知ることこそ学問を学ぶことの効用の一つでもある。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る