Scribble at 2026-01-22 20:26:01 Last modified: 2026-01-22 20:45:50

添付画像

hyperrealistic black and white photograph of landscape. Girl at Tokyo Shrine: A vibrant scene with a young girl visiting a traditional Shinto shrine in Tokyo, surrounded by colorful torii gates and bustling energy, highly detailed and sharp focus.

Steps: 4, Sampler: Euler, Schedule type: Simple, CFG scale: 1, Shift: 0, Seed: 2689389092, Size: 1920x1080, Model hash: 77c1b152f0, Model: cyberrealisticZImage_v13, Clip skip: 2, RNG: CPU, Version: neo, Module 1: qwen_3_4b, Module 2: ae

Z-Image Turbo のモデルを変えてみた。僕と同じく Forge Neo を使っているという人物がリリースしている "CyberRealistic Z-Image Turbo" だ。ただし、彼のプロンプトや生成の configuration は参考だけにしている。特にサンプリング法は、作者がサンプルとして出している画像の設定がベストとは限らない。実際、このモデルはリリースされているサイトだと " DPM++ 2s a RF"(scheduler は "beta")がよいとされているけれど、僕は "Euler"(scheduler は "simple")で良いと思う。DPM++ を使うと、生成にかかる時間が長くなる割に結果がそれほど良くないからだ。

また、モデルの作者はステップ数を 16 などとしているが、そんなステップ数は Z-Image Turbo のような蒸留モデルの描き込みに必要ないと思う。せいぜい8以下、僕なら4で十分だと思うし、実際に上の画像はステップ数を4にして出している。

ただ、出てきた画像は即座に「ゴミ」だと思うので、こんなのは仕事どころか自分のパソコンの壁紙にすら使いたくない。上の画像を見て、どうしてなのかすぐに分かるだろうか。もちろん、画像生成 AI の癖みたいなものをご存知の方なら、何秒もかからずに、これがゴミだと分かるだろう。たとえば、左上の鳥居をご覧いただくと、もうこれはアイコラとしか言いようがない。Photoshop CC 2026 で、別の写真から鳥居だけ抜き出してきて、新しいレイヤーとして無造作に置いたかのような、専門学校の学生にも笑われるようなレベルの画像である(というか、画質うんぬんという以前の話として、こんな場所に鳥居があること自体、おかしい)。どれほど「最新モデル」として宣伝していようと、こんな具合に被写体深度がめちゃくちゃな画像を生成 AI は平気で出してくるのだ。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る