Scribble at 2025-08-09 19:50:03 Last modified: 2025-08-11 10:14:41
LM Studio を起動すると、さっそくモデルをロードしてみないかと広告まで出てきていたので、試しに gpt-oss-20b-MXFP4.gguf をロードしてみた。12.11 GB だから、もちろん VRAM の容量には入るし、LM Studio の設定でモデルを読み込む際の「ガードレール」設定を最も厳格に設定しなくても、共有メモリ(ストレージのページング・ファイルなどを使った仮想メモリ)を含めれば、VRAM がもっと少なくてもひとまず動かせるのだ。僕が古い方のマシン(VRAM は 6 GB)で、本来なら VRAM が 8 GB ていどは必要とされる LoRA のトレーニングができていたのは、共有メモリを使っていたからだ。
で、やはり最新のモデルであるから、賢さとレスポンスは重要なのだが、ひとまずどちらも合格点だ。特に、これまで使ってきたモデルのうち、サイズが巨大なものはレスポンスの内容は品質が高くても、所要時間が長くて使い物にならなかったのだが、GPT-OSS-20B (MXFP4) は4ビットに量子化しているだけあって、レスポンスは十分に速い。また、僕はレスポンスの品質を確認するときに「日本のプライバシーマーク制度に沿って、社内の個人情報資産のリスク分析をしたいです。取得、加工、保管、移設、廃棄といったデータのライフサイクルに沿って、リスク分析のための確認項目を全て洗い出してください。」という質問をすることにしているのだが、これにもかなり満足のゆく品質でレスポンスしている。何年か前に、僕の下に(社内で扱いが難しい人物の配置転換先として)部下をつけるという話が出たことがあるのだけれど、その人物の力量を考えるまでもなく、そもそも既に部下なんていらないレベルになりつつあるな。あとは上司(つまり俺)が必要なくなるかどうかだが、先に「AI CEO」の話をしたとおり、マネジメントや経営層を AI にするというのは、会社法上の問題もあるが(AI を取締役にしても代表権はない)、責任の所在がはっきりしないので、「まだ」時期尚早とだけは言える。