Scribble at 2020-09-16 07:13:42 Last modified: 2020-09-16 07:38:12

簡単に利用するとしても、AI つまりは機械学習のアルゴリズムを実装するサービスが有効な結果を出すために必要とされる三つの要素がある。それらは、目的、理論、そしてデータだ。

まず、目的が曖昧なままだと、何のためにどういうデータを集めるのかが分からないまま闇雲に量だけ集めたり、種類だけ多ければいいみたいなバカげたことになる。たいていの「ビッグデータ解析」がロクな成果を出していないのは、これが根本的な原因だろう。

次に、もちろん目的に沿った解析アルゴリズムは TensorFlow つまりは Google がお膳立てしてくれるわけでもなければ、どこかの天才が知恵袋で代わりに考えてくれるわけでもない。社内に、最低でも学部レベルの解析学と線形代数を修めた人間がいないなら、真面目に自社で AI を活用する気があれば新規採用するべきであろう。この程度の数学すらできない(あるいは勉強する気がない)か、できる人間を雇用する投資予算もないくせに、《成功の方程式》とやらを誰かが教えてくれるとか自動で編み出してくれるなんて、そんな甘い話はない。そして、理論がなければアルゴリズムなど決められないのだ。

それから最後にデータは目的と理論が明快に揃っていれば、おのずと必要なものが何であるかは分かる・・・と思いたいところだが、実際にはそう単純ではない。与件である目的や理論、そしてそこから導かれたアルゴリズムも、たいていは「作業仮説」であり、データを解析した結果をフィードバックして再調整を繰り返す必要があるからだ(そして、場合によっては目的や理論も変更したり修正する必要すらある)。目的や理論が再設定されると、もちろん必要なデータの属性や量も変わる可能性がある。それゆえ、とにかく可能な限りの属性で可能な限りのボリュームを確保しようというのが、ビッグデータ解析の実情である。つまり、何を元に解析すればいいのか、実はよく分からないからこそ大量のデータを先に集めておくのだ。

目的と理論に適う属性や量のデータであるかどうかは、前もって分からないなら、可能な限りたくさん色々なデータを集めておくしかないというわけである。なんと言っても、単純で再現可能な自然現象でもない限り、一度あったことは二度とあるかどうか分からないからだ(あなたが特定のコンビニエンス・ストアで特定の時刻に買った特定の商品は、もう二度とそこでその時刻にそれを買えるとは限らない)。

なんだ、次の研修教材で AI の話をしようと思っていたのに、本質的なことはここに書いてしまったな。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Twitter Facebook