クラウドコンピューティングとデータ処理速度の進歩、そして、モノのインターネット(Internet of Things:IoT)のようなソースからの膨大なデータ入力を受けて、企業はこれまでにない量のデータを収集するようになっている。ビッグデータはかつてないほどビッグになった。しかし、そのデータを整理して処理し、理解することは、多くの組織にとって、今も大きな課題である。
ビッグデータの意味と管理方法を未だに理解しかねている企業はいないだろうか。本記事では、さまざまな専門家がビッグデータにまつわる6つの俗説を紹介し、読者の皆さんがビッグデータ分野の事実と虚構を見分けられるように解説する。
1. ビッグデータは「大量」のデータを意味する
「ビッグデータ」は、近年のバズワードになっているが、その本当の意味は、今でもはっきりしないことが多い。ビッグデータは単純に大量のデータに過ぎないと考える人もいる。しかし、それは必ずしも正しくない。実際にはもう少し複雑である。ビッグデータとは、構造化データ(「Excel」シートなど)か非構造化データ(電子メールのメタデータなど)かに関係なく、データセットがソーシャルメディア分析などのデータやIoTデータと結びついて、より大きな物語を紡ぎ出すことを指す。そのビッグデータの物語を見れば、組織内で起きていることの傾向が分かる。この物語は、従来の分析手法では捕らえるのが難しいものだ。
Toyota Research Instituteのデータ担当責任者であるJim Adler氏も、データには質量がある、と本質を突いた発言をしている。「データは水のようなものだ。コップに入っているときは、非常に扱いやすい。しかし、氾濫した水は人々を圧倒する」と同氏は述べる。「1台のマシン分のデータを処理するデータ分析システムは、データの規模が100~1000倍に増大したら、押しつぶされてしまうだろう。したがって、小規模なプロトタイプを作ってもかまわないが、大きな規模を想定して設計する必要がある」(Adler氏)
残り本文:約3455文字 ログインして続きを読んでください。