日本オラクル特集記事

ビッグデータが「みんなのもの」に?
オラクルが予測する2016年の見通し

ジェフ・ポロック

業界の過熱ぶりを見るかぎり、ビッグデータはすでに広く浸透しているかのように思われます。ですが、実際にはそうではありません。

HadoopやSparkのベンダーでは、ビッグデータ・ソリューションを購入する企業は3,000社程度と見ています。さらには、有料サポートを利用しないユーザーもいるなか、これらの企業のほとんどがビッグデータを本番環境で利用できていないという現状があります。

これらのビッグデータ顧客3,000社と、全世界で50万社を超えるとされるデータベース・ユーザーとを比較した場合、ビッグデータ技術の導入に大きな拡大の余地があることは明らかです。

技術の成熟ライフサイクルを長いスパンで見た場合、ビッグデータはようやく幼少期を過ぎ、思春期の難しい年頃に差し掛かったところだと言えます。

2016年は、ビッグデータの導入数が3,000社から数万社へと大きく増加する、始まりの年となるでしょう。業界ではいよいよメインストリーム用途にギアを入れ始め、それにともない、数千社の企業が影響を受けることになると見込まれます。

ついに、一部の企業以外のすべての人々がビッグデータを目にすることになるわけです。

言うまでもなく、このトレンドにはいくつもの要素や依存関係が内在しています。オラクルのビッグデータ・チームでは、先ごろ、2016年のビッグデータに関する10の見通しについてまとめました。そのなかで注目されるのは、ビッグデータ・ユーザーの大幅な拡大、重要な技術的進歩、および社会、政治、ビジネス・プロセスに対する影響の増大という3つのトレンドです。

新しいビッグデータ・ユーザー

ビッグデータの登場から数年間、進歩は一進一退を繰り返してきました。ビッグデータ技術の成熟度レベルは1.0~2.0に留まっており、プロジェクトの実行には高度なスキルを持つ専門家の存在が不可欠でした。初期のプロジェクトのなかには目覚ましい成果をあげているものもある一方で、使いやすさ、堅牢性、柔軟性、保守のためにIT部門が投じた高額の費用が十分に活かされているとは言えないのが実情です。2016年には、新しいツールとアプリケーションによってあらゆるユーザーがビッグデータを活用できるようになり、ターニング・ポイントが訪れるものと見込まれます。

[予測1] ビジネスパーソンがデータ・サイエンティストと同じようにデータ分析できるようになる

ソフトウェアの導入が進み、一般のビジネスパーソンが日々の業務のなかでビッグデータを利用できるようになると予想されます。データ・サイエンスの領域がサプライチェーン/物流、製造、小売といった業界にまで広がり、中小企業によるクラウドベースのデータ・ディスカバリー・ツールの導入が進むことでしょう。

[予測2] DIYからソリューションへの移行

ほとんどのIT部門のリーダーたちは、オープンソースのビッグデータ技術をカスタマイズして導入する際、FacebookやTwitterに頼るわけにはいかないという現実を受け入れることになるでしょう。大多数の企業のIT部門にとって、オープンソースのハッカー集団を雇用したり、複雑なシステムを自社で構築したりといったことは現実的に不可能です。

[予測3] IoT + クラウド = ビッグデータのキラー・アプリケーション

ビッグデータ技術の進展にともない、現実の世界における生産量、物理デバイス、サプライチェーンなどの管理の仕方が根本から変わることになるでしょう。モノのインターネット(IoT)の技術が登場してしばらく経ちますが、これらを使いこなすには膨大な額のIT投資が必要とされることから、IoTの恩恵を受けているのはごく一部の企業に限られています。2016年には、数回のクリックで操作できるシンプルなIoTクラウド・サービスの出現にともない、中堅のIT企業でもIoTを利用できるようになると見込まれます。

2016年に提供が開始される技術

ビッグデータ技術は、今なお驚異的な速さで変化を続けており、2016年にも新たな規格、言語、ツールの提供が開始されることが見込まれます。

[予測4] データ仮想化が現実のものに

企業は、リレーショナル、NoSQL、Hadoop、Spark、空間、グラフの技術からなる新しいポリグロット(多言語)アーキテクチャの再構築に取り掛かることになると見込まれます。ポリグロットは多様なフォーマットでデータの保管や最適化を行うのには便利ですが、一方で、それらのデータ全体に対するアクセスやクエリの実行が難しくなるのが難点です。データ仮想化を使うことで、開発者に優しいAPIを通して各種データにアクセスできるようになり、このようなギャップの解消につながります。

[予測5] データフロー・プログラミングの利用拡大

旧来の手続き型プログラミングは、大規模な分散コンピューティング・リソースには適していません。ストレージとコンピューティングの両方が分散している場合、データフロー・パイプライン型のプログラミング・モデルのほうが、モジュール的特性が強く拡張が容易に行えます。ビッグデータ用のUNIXのパイプを考えれば、このことが理解できるはずです。

2016年には、データフロー型のパイプライン・プログラミングを大々的に利用したベンダーのビッグデータ言語やApacheオープンソース言語を採用する企業が増えると見込まれます。

[予測6] ガバナンス・ツールやリネージ・ツールにより、データ・スワンプを正常な状態のデータ・レイクに戻せるようになる

メタデータ、リネージ(データの系統)、データ・ポリシーをより成熟したものにするには大変な手間がかかります。ところが、ビッグデータに大量の新しいデータが混在することで、問題はさらに深刻化し、解消が困難な状況に陥っています。

従来のデータ・ガバナンス・ツールにビッグデータ機能が追加され、ビッグデータ・ベンダーではメタデータ・リネージへの投資を進めています。さらには、Apacheのオープンソース・コミュニティでも、データ・ポリシーやメタデータ・リネージの開発に力を入れています。このような動きにより、2016年には、データ・スワンプを回避し、データ・レイクを正常な状態に保ちいつでも利用できるようにしておくことが容易になると予想されます。

ビッグデータの影響

オラクルが立てている予測のなかで、もっとも興味深くかつ大胆なものは、アナログ分野に関するものだと言っていいでしょう。ビッグデータは、ビジネス、社会、政治の構造に深く根差した技術へと変わっていくであろうと考えられます。思春期が難しい年頃であるのと同じように、ビッグデータ技術の成熟には多くの困難がともなうことでしょう。

[予測7] 実験的なデータ・ラボの始動

最終的に、ビッグデータは、日常の業務のなかでデータに基づく分析と仮説検証を実行するための基盤を提供することになると考えられます。2016年は、リーダーたちが曖昧な意思決定を止め、透明性とデータに基づく意思決定にフォーカスするようになるとオラクルでは見ています。

[予測8] ビッグデータによって、考えるべきことがAIにもたらされる

人工知能(AI)にとって2016年はまさに新たな春の始まりであり、HadoopやSparkといったビッグデータ技術を使ってやるべきことが多数存在します。スティーヴン・ホーキング、ビル・ゲイツ、イーロン・マスクといった著名人がAIのリスクについて警鐘を鳴らすなか、ソフトウェアが自ら思考するかのように動作し、自動車が自動走行を行い、機械が人に取って代わる未知の領域への突入にビッグデータがどのような形で関わっているのかをじっくりと考えることが必要になってきます。

[予測9] データ・ポリティクスによるハイブリッド・クラウドの促進

データの局所性、地理的情報、および物理的な位置の重要性を減らすうえでクラウド技術が果たす役割によって、政府機関や国家安全保障機関では、ビッグデータやストレージのポリシーにより強い焦点が当てられることになるでしょう。

[予測10] 保護とアクセスのバランスを取るための新しい機密性区分制度

消費者と政府機関のデータ・プライバシーに対する意識の高まりにともない、データの保護とアクセスの厳密なコントロールを容易に行うためのデータ分類法が求められるようになるでしょう。実際、2016年にはビッグデータの政治性がこれまで以上に複雑な形で表出することになると見込まれます――これは、ビッグデータ分野が成熟に向かう兆候と言えるものです。

ビッグデータは「みんなのもの」になるのか?

2016年には、ビッグデータ技術の成熟にともない、より多くの企業・組織にチャンスがもたらされることになることが期待されます。企業は、いち早く導入した他社の教訓から学び、クラウド技術やユーザーフレンドリーな各種技術の恩恵を受けることができるため、ビッグデータ技術の導入に大きな変化が見られることが期待できます。

これら10の見通しは特定のトレンドに焦点を絞ったものですが、今後数年間のより大きな動きとしては、企業全体の経営戦略にビッグデータ戦略を組み込まなければ、それを実践している先進的な企業に取り残されることになることは間違いないと言えるでしょう。

本記事はForbes.com OracleVoiceの以下の記事を抄訳しています:
http://www.forbes.com/sites/oracle/2016/01/05/big-data-for-all-oracles-2016-predictions/