Scribble at 2025-02-01 14:54:12 Last modified: 2025-02-02 14:09:31

多くの企業で生成 AI を実務の補助として取り入れるときに、いま最も盛んに導入されている方法は、おそらく自社に関する情報や自社に特有のコンテクストを使って、(1) プロンプトで明示的に回答すべき内容の特徴を指示したり、(2) RAG で自社のデータを参照させたり、それから (3) あらかじめ専門の業者に依頼してファインチューニングしたモデルを使うという三つくらいになるだろう。

まず (1) は単に Copilot や ChatGPT に質問して答えてもらうというだけの話にすぎないことが多いわけだが、自社の情報を勝手に公のサービスにプロンプトの一部として入力するバカがいたりするので、社内のルールを決めて守ってもらう必要がある。

こういうリスクに対して、(2) と (3) は社内で動かすスタンドアロンなシステム(あるいは社内ネットワークだけで動作するシステム)を導入して、オンライン・サービスのサブスクとは違う方式で生成 AI を利用してもらうことになるわけだが、(2) は自社のデータを回答にあたって参照させるので、馬鹿な業者に実装させると非常に効率の悪い運用となってしまう。たとえば「おはよう」と入力するだけでも、AI が「『おはよう』に関する言語的、文化的、音声学的なコンテクスト」をいちいち参照しつつ答えようとして、返事するまでに数分もかかってしまうなんてことが起きる。これは、いわゆるハルシネーションのように AI がデタラメな推論をして回答してしまう問題とは別の、これまた昔からあるフレーム問題の一例になるのだが、参照するべきコンテクストの範囲を的確に決められないという問題である。

そして (3) は、最初から運用目的を制限したり明確に定めてコンテクストを業務に関わりがある範囲にしておくという効率の良さはあるが、それ以外のことはできないので、要するに産業ロボットと同じようなものになってしまう。極端な場合は、「おはよう」と入力しても、それが業務に関係なければ何も返事をしない、かなり融通の効かないモデルになる可能性がある。

ここ最近の動向としては、そういうわけでファインチューニングはしないという事例が増えているらしい。そもそも、ファインチューニングは一度や二度で最適化できるわけがないのであって、モデルの制作に社外から加わった人々が数値としての結果だけで的確さを判定できるわけでもない以上、発注側の企業には予想のつかない出費が長期間にわたってかかってしまう可能性があるのだ。これは、正確な回答を出せるように、学習用のデータを多くすればするほどトレーニングに時間がかかるのだから、当然のことでもあろう。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る