ビッグデータの定義には
諸説がある

 こんにちは。今回は、巷を賑わして止まない「バズワード(流行語)」のひとつ、「ビッグデータ」について書いてみようと思います。

 みなさん、ビッグデータとは、何だと思いますか?

 過去のバズワードに、「データ・ウエアハウス」というものがありました。「将来考えうる、様々な分析のために、各種のデータを集積しておく」という概念です。

 ビッグデータは、一般的な(なんとなくの)定義では、データ・ウエアハウスと異なり、これまでのツールでは格納しきれないぐらいの膨大なデータを、分析のために集積しておくことを呼称しているのではないかと思います。

 IDCジャパンの定義によると、もっと具体的で、「ビッグデータとは、データサイズが100TB(テラバイト)以上、またはストリーミングデータ(動画など)を利用していること、または年率60%以上の成長率で生成されるデータであること」のいずれかの条件を満たしたアナリティクス(分析系業務システム)」を呼ぶのだそうです。

 また米国のウェブサイト、Baselineの2014年2月の記事によると、KPMGの調査では、10人中7人のCIOが「ビッグデータは重要である」と回答しています。

 世界中のデータのサイズは、2020年の時点で4万エキサバイト (40トリリオン・ギガバイト)に達するようです。

 私には、まったくピンと来ない大きさですが、1エキサバイトで、5万年分の長さのDVD動画を格納できるのだそうです。4万エキサバイトだと、40億人が、半年間夜も寝ないでDVDを見続けることができる量ということになります。それでもピンときませんが…。

 この流行が、いかに最近のできごとかというと、同記事いわく「90%のデータがここ2年間で格納されている」のだそうです。ビッグデータのマーケットは、昨年の1兆200億円から、2017年には5兆3400億円のサイズになると報告されています。

 いずれにしろ、すごいことになっていることだけは、間違いなさそうです。