Scribble at 2026-04-18 21:13:47 Last modified: 2026-04-19 08:30:58

添付画像

Ollama gained traction by being the first easy llama.cpp wrapper, then spent years dodging attribution, misleading users, and pivoting to cloud, all while riding VC money earned on someone else's engine. Here's the full history, and why the alternatives are better.

Friends Don't Let Friends Use Ollama

他人のコードを黙って使うとか、あるいは脆弱性が指摘されても無視するとか、とにかく Ollama の開発チームは人としての姿勢を疑われる人々のようであり、これでは僕が使うツールとして信頼のおけるものではあるまい。ということで、さっさと Ollama は抜いて llama.cpp を入れた。

ひとまず make の環境なんて作りたくないので、バイナリをもらって置いてある。プロンプト生成用のシステムを組みなおす必要があるため、暫くは新しい FLUX.2 Klein 用のプロンプトは作らないが、llama.cpp での運用に問題があれば、元々は LM Studio のサーバでやっていたことなので、LM Studio のサーバへ Python でアクセスする方式に戻すだけだ。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る