TOPSoftware > ビッグデータ分析の8大トレンド(中)

Software

ビッグデータ分析の8大トレンド(中)

2014/11/19

Robert L. Mitchell Computerworld

 ビッグデータと分析に関する新興技術やトレンドのうちで、企業にとって要注目のものや、実験環境でテストした方がよさそうなものには、何があるのだろうか。Computerworldは、各社のIT幹部、コンサルタント、業界アナリストらに話を聞き、ベスト8をまとめた。

前回から続く)

3:ビッグデータのデータレイク

  従来型のデータベース理論では、データを入力する前にデータセットを設計することが必須と定められていた。データレイクは、そのモデルをひっくり返すものだと、米 PricewaterhouseCoopers(PwC)で米国企業向けのコンサルティングに携わる主席テクノロジスト、Chris Curran氏は言う。データレイクは、エンタープライズ・データレイクやエンタープライズ・データハブと呼ばれることもある。「Hadoopの巨大なリポジトリに、データソースをまるごと格納するというものだ。データモデルは事前に設計しない」。代わりに、利用者がデータを分析するためのツールと、データレイクの中にどのようなデータが存在するかという高レベルの定義が用意されている。「利用を進めていく中で、データにビューを構築していく。大規模なデータベースの構築が段階的に進んでいく、非常に有機的なモデルだ」。デメリットとしては、利用者が高度なスキルを備えていることが必要だという点がある。

 IntuitのLoconzolo氏によると、同社の場合は、Intuit Analytics Cloudの一部としてデータレイクを保持しており、ユーザーのクリックストリームのデータ、企業データ、サードパーティーのデータを格納している。だが、現在はツールの「大衆化」に主眼を置いており、ビジネスユーザーが効果的に使えるようにすることが焦点だという。Hadoopによるデータレイク構築に関して同氏が抱いている懸念の1つは、Hadoopが本当の意味で企業向けという域に達していない点だ。「我々が必要としているのは、従来型の企業向けデータベースが何十年も前から備えていた機能だ。アクセス制御の監視、暗号化、データのセキュリティ、データの入手元から移動先までのライフサイクルの追跡といったものである」

↑ページ先頭へ