ビッグデータの使いどころ

http://jbpress.ismedia.jp/articles/-/34827
http://togetter.com/li/311794


ビッグデータは個人的に「分散ファイルシステム」用途に興味があるけども
「何でもかんでもデータ化する」導入目的側に興味がなかったりします。


「何でもかんでもデータ化」にさほど興味がいかないのは、一つは社内の状況を全て情報化したとして
その膨大なデータは見きれるのかって話になるんじゃないかと思っています。これは管理(上長)サイドの問題。


それだけ眺めて一日過ごしてる人ってただの余剰人員ですよ。
把握するのが仕事だって強弁するかもしれないけど、把握して指示までアクションが到達しないならそれはさほど価値のないことです。マイナスやゼロとは言わないが微々たるプラス。


もう一つはそのデータの入力の問題。データ投入に人手が必要ならそのコストを考えないってのは片手落ち。


キーロガーみたいに作業内容がそのままデータ化されるなら入力の部分を考慮外にできる気がするけど
キーロガーの生データをそのまま見ても分析や理解に時間がかかるし、業務に関係ないデータも混ざるから処理量が現実的で無くなる。


そのデータが業務に関係するかしないかは人で判断するしか現状技術が確立していない以上、人を投入せざるを得ない。




で、この2点を掛け合わせて生まれた分析データがどんな価値を生むのかという根底の問題がありまして。
いやだって分析データ自体が「商品を作る」ことも「商品を売る」ことも「サービスする」こともないです。


たとえばこれまで 商品を売る100.0 × 分析なし1.0 = 100.0の価値を生んでいたとして
ビッグデータを使うために全体の手間の20%を分析に向けて、結果分析データを使うことで1.2倍の売れるようになるとするなら
商品を売る80.0 × 分析あり1.2 = 96.0の価値を生むことになる。


(;'▽')減ってるじゃん。


ってケースは割と出るんじゃないかなと。
分析の結果大金脈見つけて、分析あり5.0 くらいの係数叩き出すとか、分析に向ける作業量を5%程度で済ませられるとかすればペイしますけど
金脈の有無自体が博打だし、ビッグデータの仕組みを作るのももちろんコストに計算しなきゃならない。




個人的にはこういうトップダウン志向なモノじゃなくて、
「あ、間違えて保存しちゃった」「これなんだろう?」「あれどこにあったっけ?」を回避できる
各種資料類をSubversionみたいなバージョン管理&付帯情報付きで一括管理する仕組みの方が何かと役立つ気がします。


で、複数拠点持つ会社なんかにはビッグデータ技術を使ってデータを共有&分散バックアップするっと。


好みの話で言ってしまえば、「分散技術」を使って「中央集権的」な処理をするのって思想矛盾しててイヤだったりします。
なんでもかんでも中央判断は1つの方法としては悪くないけど、現場-中央-現場を往復する情報のオーバーヘッドは絶対無視できないし誤解や誤認から発生するロスもある。その辺りでモタモタするのは厳しい状況であればあるほど致命的だと思うんですけどねえ。


現場任せはリスクである(キリッ
という気持ちはわからなくもないが、割と中央判断自体が明確なコストになってること多くないですかね?
という突っ込みをしたくてたまらないビッグデータ関連記事。