いま必要なのは「アナリティクスアプローチ」

     - ビッグデータ, マーケティング  


こんにちは。
ビッグデータ解析部のakiです。

解析部で、Markezineでの連載をはじめましたのでご紹介です。

いま必要なのは「アナリティクスアプローチ」、ビッグデータ活用の課題とこれから
(http://markezine.jp/article/detail/21293)

マーケターのかた向けに、今後のビッグデータ活用についてデータサイエンティストの立場から説明していく連載です。
上記では第1回目として把握しておくべきビッグデータ活用の現状と課題、今後目指すべき方向性を紹介しています。

第1回の概要としては以下のような流れ。

■まずビッグデータ活用の現状把握

  • 「いまビッグデータの活用はどのくらい進んでいるのか。」
  • 「レベルでいうと、一般的にどのくらいなのか。」
  • 「そして今のレベルには、どんな課題があるのだろうか。」

ということを簡単に整理しています。

■アナリティクスアプローチ

そしてこれから。

  • 「次のレベルは、どんな状態なのか。」
  • 「いまのレベルから、次のレベルにステップアップするには。」

といったことについて解析部の考えを説明しています。

■すごくサマリ

いいたいことは、
従来のヒューリスティックなデータ活用も大事だけど、ちょっと視点の違う方法論としてアナリティクス・アプローチも今後ますます重要ですよね。
ということです。

これまでも多くの企業でそういう研究や取り組みはされてきているし、よく記事などでも拝見しますが、それが本格化していく環境が整いつつあると思います。

■本格化のきざしは、例えばここに見える

まず、インフラの発達。
解析基盤、ネットワーク、クラウドストレージなど。
「技術的には可能なんだけど、やりたいんだけど、インフラコストが…」といった事が急速に解消されつつあります。

次に、活用事例。
活用事例が増えてくると活用イメージが持てるようになって、トライしてみる企業が加速的に増加していきます。
イノベーター理論でいうと、アーリーアダプターに相当する企業がこれまでかなりトライを重ねてきて、アーリーマジョリティがいま積極的に検討を始めている。
そんな段階に入ってるな、と感じています。

そして、やらなければ負けるビジネス環境。
自社はどんな価値を市場や顧客に提供するのか、という大上段の差別化がもちろん企業としては存在意義を問われるところですけれど、それとは別の次元で、活用できる資産をちゃんと活用する。持っているデータや入手できるデータをちゃんと使いこなす。
というところでの戦いも激化している中で、遅れをとればナレッジが得られるのが遅れる、ノウハウの蓄積が遅れる。
提供したい価値を市場や顧客により良く届けるために、いまデータに取り組むべき段階になってきています。

こんな要素が織り重なって、いまがまさに、劇的にビッグデータ活用が進んでいくパラダイムシフトのときだと感じます。
ビッグデータ解析部としても、我々がそのリーダーシップをとっていくのだという気概でがんばっていきたいと思います。

■おわりに

…ちょっと固い話になりましたけど。

Markezine連載、月に1回くらいのペースで投稿していきますので、こちらともども、どうぞよろしくおねがいします。

いま必要なのは「アナリティクスアプローチ」、ビッグデータ活用の課題とこれから
(http://markezine.jp/article/detail/21293)

DACエンジニア採用情報

  関連記事

【Hivemall入門】RandomForestで毒キノコ推定モデルを作る

こんにちは。俺やで。 今回も前回から間が空いてしましたが、ビッグデータに対応したHiveで使える機械学習ライブラリ、 Hivemallの使い方について、書かせていただければと思います。 なお今回はQiitaのTreasure Data / Advent Calender 2015の12/3日分として …

Tableau 9.2で郵便番号の特性を地図で可視化してみる

Tableau 9.2から郵便番号地図が表示可能に 弊社ではデータ分析ツールのTableauを利用しています。オーディエンスデータの重複を分析したり、デモグラフィック属性を表示したりするなどデータの可視化に役立ちますTableauでは9.2から日本の郵便番号を用いて地図を可視化できるようになりました …

fastavroとjqでAVRO形式のファイルからデータを取得しよう

AVRO形式のファイルを取り扱いたい AVROとはApacheプロジェクトのひとつとして開発されているデータ交換形式です。 コンパクトなバイナリで高速なシリアライズ・デシリアライズが行えるため、サーバーログなどに利用されています。 弊社内での一部システムのログデータにも利用されているのですが、専用の …

Treasure Dataの新機能(Data Tank)をAudienceOneのレポート機能で利用した話

Data Tankとは? Treasure Dataの新機能でTreasure Dataのプラットフォーム上に構築されたデータマートです。 Tableau等のBIツールとの接続を想定されており、AWSでいうところのRedshift的なものだと考えるとわかりやすいかと。 Data TankはPostg …

【入門編】TreasureDataでサイトのアクセス解析をしてみた~第2弾!~

今回もやります、集計クエリ解説シリーズ第2弾!! 前回は、Webログからセッション単位のデータを作成するだけでした。 第2弾では作成したテーブルを元に、より実践的なアクセス解析、サイト分析で使えるHiveQLについて、実際に使用したクエリとともに解説していきたいと思います。 今回やったこと 利用した …

巨大データベースのスケールアップと引越作業

はじめに ビッグデータ解析部でオーディエンスデータ解析基盤の開発、運用を担当している Mike です。 弊社ではインターネット広告配信ログをはじめとする「ビッグデータ」と呼ぶにふさわしいデータボリュームを扱うオーディエンスデータ解析基盤を構築しています。今秋、そのうちの1構成要素である、データサイズ …

D3.jsとその活用事例について

D3.jsとは? D3とは「Data Driven Document」の略で、データに基づいてドキュメントを操作するための JavaScript ライブラリです。 ご存知の方も多いと思いますが、ちょっとだけD3.jsの基本的な使い方、そして弊社プラットフォームでの利用についてご紹介したいと思います。 …

GoogleAppsScriptとTreasureData REST APIを使ってサーバレスにTwitterのデータを取得

またまたTreasureDataネタです。 ただ、今回はクエリ系のネタではなく、GoogleAppsScriptとTreasureDataのREST APIを使ってTwitterのデータをTreasureDataに入れてみたので、その方法を紹介したいと思います。 はじめに ログデータだけではなく、公 …

HivemallでMinhash!〜似てる記事を探し出そう。〜

こんにちは。俺やで。 前回の投稿に続き(間が空きましたが)、 ビッグデータに対応したHiveで使える機械学習ライブラリ、 「Hivemall」の使い方、第2弾となります。 今回はMinhashという手法について書きたいと思います。 ※前回 【超入門】Hivemallで機械学習 〜Treasure D …

Treasure Dataで大規模なマスタデータを扱う際にはtimeカラムインデックスを活用しよう

DACではTreasure Dataを利用して各種データの蓄積や集計を行っています。Treasure Dataは時系列のデータを扱うのに特にすぐれたアーキテクチャなのですが、セグメントIDとユーザーIDの組み合わせといった大量のマスタデータを利用した計算にも利用することもできます。そのような場合にt …