2018年05月13日に初出の投稿

Last modified: 2018-05-13

Google で「船場センタービル」とだけ検索すると 140 件ていどしか結果が返ってこないのに、船場センタービルについて書いた当サイトのページが入ってない(もちろん、ウェブマスターツールでインデックスしてもらうよう設定してあるし、sitemap.xml も登録している)。safe search すると、省かれてしまうようだ。safe search を解除すると 260,000 件ほど返ってくるが、それでも MD のページはぜんぜん出てこないし(SEO からすればもっと上位に来ていいはず)、そもそも Google って検索結果のページを進んでいくと、知らない間に検索結果の総数が 260,000 件から 260 件に減ってたりして、ぜんぶ見られないんだよね。

もう、最近の Google って anti over-optimization のやりすぎなのか、利用する側から見て殆ど予測不能な挙動をする。まったく信用できないな。Bing や、あるいは DDG ですら良し悪しはあると思うけれど、やはり今年をめどに、検索エンジンは Google を使う比重を大きく落とそう。

ちなみに、大昔は Google の膨大なデータ量に後続の検索エンジン会社が勝てるわけないとか言ってた人もいたわけだけど、そんな考え方は単純すぎるということが分かったのか、いまでは誰も言わなくなったのは結構なことだと思う。

もとより、少し冷静に考えれば分かることだが、Google は確かに膨大なウェブページのデータをもっているけれど、重要なのは、そのデータは検索の利用者(に想定できるメンタル・モデルとか期待内容)に対して最適化されなくてはいけないということだ。彼らは「検索結果」それ自体を広告として扱う商売をしているのであって、Adwords の仕組みでリスティング広告などを表示しているのは、言ってみれば Google 本体がやっていることの一部を操作可能にして提供しただけのことでしかない。つまり、そもそも SEO などというコンセプトが成立していたり Adwords のようなサービスが提供できるのは、Google こそが利用者に対して customers optiomization をやっているからなのであって、もっと単純で機械的にデータを並べているだけなら(たとえばページのタイトルにキーワード文字列がマッチするかどうかだけを見て、結果をページの時系列順に並べるとか)、恐らく SEO などというコンセプトは成立しない。

つまり、どうしてこんなことをする必要があるのかと言えば、Google が収集している膨大なデータの殆どは「カス」だからなのであり、利用者の期待する内容に応えるような情報を提供してはいないし、するつもりもないクソがページを大量にばらまいているからなのである。検索結果という広告の品質が下がることは、とりもなおさず Google という企業の技術的なプレゼンスやブランドが低下することに直結する。それゆえ、彼らが膨大なデータを保有してオンラインの情報を支配しているかのようなデタラメを色々なスローガンや「Google I/O」のようなイベントで社員にバラ撒かせて、多少の品質低下があってもユーザがすぐに別の検索サービスへ乗り換えないようプロパガンダを続けてきた。Google の技術者は純粋な情報科学の研究者などではなく、一見すると純粋に情報科学や数学や通信工学の論文を発表しているだけに見えるが、そもそも彼らの従事している対象であるところのデータや、「彼らの科学」が拠って立つコンテクストは、単にビジネスという観点から制御可能なものでしかない。

したがって、後続の企業でも Google と同じていどの品質の結果を提供することは可能なのである。誰もが実感している筈だと思うが、何かを検索して 100 個の検索結果を全て上位から見たとき、あなたが必要としているページはどれくらいあるだろうか。そして、そういう興味深いコンテンツが提供されているページは、1年間でどれくらい増えたりコンテンツが充実していくと思うだろうか。僕の想定では、たいていのキーワードで有用なコンテンツが検索結果に含まれる割合というのは、そこそこ検索エンジンのアルゴリズムがまともで、アルゴリズムをどういじくっても有用なコンテンツが常に上位 100 位に入り続けると仮定しても、せいぜい1割に満たないと思う。いや、大多数のキーワードについては必ず複数のキーワードを使ったり除外条件を加えて検索しないと、まともな結果がなかなか上位に出てこない場合も多々あるはずだ。そして、今日においては、クズみたいなコンテンツが「メディア」を自称するコタツ記事のライターや情報ブローカーどもによって毎日のように公開されている。僕が当サイトで公開しているページは、内容の是非はどうあれ、平均すると作成するのに1週間ていどはかけている筈だし、それぞれのページの改版履歴を見ていただいても、公開した後に殆どのページは何年にもわたって改訂し続けている。(もっとも、技術に関するページの方が作るのに時間はかかっていない。恐らく1日で書いたものもあるし、平均しても数日で書いている。それは、単に僕がそういう分野で知識も経験もあって即座に色々なことが書けたり、不足している情報や知識を的確に短期間で補完できる、つまりは有能だからであって、有能な人間の成果だと思えば何も不思議なことではなかろう。)

書いている人の文体や着眼点やおきまりのレトリックなどで読ませるエッセイなどは別として、情報や思想を伝達したり提供するコンテンツなら、1ページを制作して公開するまでに時間がかかるのは当たり前だ。有能であろうとなかろうと我々の大多数は凡人であり、数学者のエルデシュみたいに 1,000 を越える重要な成果を易々と幾つも次々に書けるものではない。簡単に言えば、オンラインのコンテンツのうち、我々が本当に読むに値するものは 1,000 ページに 1 ページていどの割合で存在していればマシだろう。よって後続の事業者でも、その1ページを検索結果の上位10位以内に出せるアルゴリズムを開発できれば、いまからでも Google に追いついて追い越せる余地はあるのだ。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Google+ Twitter Facebook