ビッグデータ時代 勝敗の分かれ目
Bizクリニック□ビズライト・テクノロジー代表取締役社長 田中博見
「ビッグデータ」という言葉を、誰が、どこで、いつ使い始めたかは、はっきりしないらしい。数年前までは、もっともらしい説明がつけられていても定義がはっきりしない“バズワード”だった。しかし最近になって“まじめ”(失礼!)な例がどんどん報告されるようになってきた。
「多変量解析」という言葉を聞いたことがあるだろうか。さまざまなパラメーター(変数)から相関を見つけ出し、マーケティングに代表される事業の知見を得ることを指す。気温や湿度、天気などとビールの売り上げにどのような相関関係があるかを調べる統計的手法といえば理解していただけるだろう。かなり乱暴に言うと、その元となるデータ数が膨大であったときに「ビッグデータ」、それを解析することを「ビッグデータ解析」と呼ぶ。
小売りの現場では昔から「この商品を買った人はあの商品も高い確率で購入する」「この商品はこういう属性の人が買う」といった分析が数多く行われており、その根底となる統計手法自体が著しい進化を遂げているわけではない。しかしセンサーや、あらゆるものがネットにつながるIoT(Internet of Things)、街中にある監視カメラ、インターネットアクセス履歴、スマートフォンの履歴、衛星利用測位システム(GPS)などによって私たちの行動があらゆるところで収集できるようになってきたため、統計や分析の元となるデータが膨大になっている。さらに高性能なコンピューターがこれを解析している。つまり「ビッグデータの源泉は、実はセンシングである」と定義できる。
失礼ながら、多くの人は本質的にこれを理解できていない。筆者も現場で「ビッグデータ解析はできると思うが、そのデータはどうやって採取するのか」と問うことが多い。逆説的に言うと「対象となる人やモノの動きを得る仕組み」を考えて構築できれば、あなたはビッグデータ解析を活用し、ビジネスで成功できるかもしれない。
ここで最も重要なことは「仮説を立てる能力」である。つまり「気温が高くなればビールが売れるのではないか」といった仮説を立てられるかだ。この命題は直感的に誰でも分かるし、仮説も立てられるが、ほとんどの場合、顧客の行動に仮説を立てることはそう簡単ではない。
この仮説と命題づくりは、基本的に人間が行わなければならない。その命題をコンピューターに指示し、統計学的に有意であるかを調べ、試行錯誤を繰り返して実際の戦略や戦術にフィードバックしていくことになる。膨大なデータを解析するのはコンピューターだが、仮説を立てるのは人間の仕事なのだ。
現状を見つめ、ビッグデータ解析で利益を得られる側に回るのか、それとも行動を分析され、刈り取られる側に回るのか-。ここにも会社や個人の分かれ道が存在している。
◇
【プロフィル】田中博見
たなか・ひろみ システムハウス役員などを経て、1998年にアルファークラフトを設立。2004年に札証アンビシャス上場。06年ビズライト・テクノロジーを設立し、現職。公共交通関係のサイト構築、デジタルサイネージ、IoTゲートウェイなどを自社開発。ジンバブエ政府のサーバ構築も手がけた。53歳。北海道出身。
関連記事