ビッグデータ解析

ビッグデータにまつわる6つの俗説--専門家が語る現状

ビッグデータは近年のバズワードになっているが、その本当の意味は理解されていないことが多い。本記事では、ビッグデータにまつわる6つの俗説を紹介し、その事実と虚構を見分けられるように専門家が解説する。

 クラウドコンピューティングとデータ処理速度の進歩、そして、モノのインターネット(Internet of Things:IoT)のようなソースからの膨大なデータ入力を受けて、企業はこれまでにない量のデータを収集するようになっている。ビッグデータはかつてないほどビッグになった。しかし、そのデータを整理して処理し、理解することは、多くの組織にとって、今も大きな課題である。

 ビッグデータの意味と管理方法を未だに理解しかねている企業はいないだろうか。本記事では、さまざまな専門家がビッグデータにまつわる6つの俗説を紹介し、読者の皆さんがビッグデータ分野の事実と虚構を見分けられるように解説する。

1. ビッグデータは「大量」のデータを意味する

 「ビッグデータ」は、近年のバズワードになっているが、その本当の意味は、今でもはっきりしないことが多い。ビッグデータは単純に大量のデータに過ぎないと考える人もいる。しかし、それは必ずしも正しくない。実際にはもう少し複雑である。ビッグデータとは、構造化データ(「Excel」シートなど)か非構造化データ(電子メールのメタデータなど)かに関係なく、データセットがソーシャルメディア分析などのデータやIoTデータと結びついて、より大きな物語を紡ぎ出すことを指す。そのビッグデータの物語を見れば、組織内で起きていることの傾向が分かる。この物語は、従来の分析手法では捕らえるのが難しいものだ。

 Toyota Research Instituteのデータ担当責任者であるJim Adler氏も、データには質量がある、と本質を突いた発言をしている。「データは水のようなものだ。コップに入っているときは、非常に扱いやすい。しかし、氾濫した水は人々を圧倒する」と同氏は述べる。「1台のマシン分のデータを処理するデータ分析システムは、データの規模が100~1000倍に増大したら、押しつぶされてしまうだろう。したがって、小規模なプロトタイプを作ってもかまわないが、大きな規模を想定して設計する必要がある」(Adler氏)

編集部おすすめの関連記事

残り本文:約3455文字 ログインして続きを読んでください。

あなたにおすすめの記事

ホワイトペーパーランキング

  1. GDPR対応の盲点「サーバーインフラ」のセキュリティを高めよ
  2. AWSユーザーはいかにしてAIと機械学習の活用で新しいビジネスモデルを構築したのか
  3. コモディティサーバーはもう限界! HCI全面採用時に求められるハードウェア要件とソリューション
  4. BIOSに潜む脆弱性が脅威に! サーバーのセキュリティ要件を整理せよ
  5. データベースがビジネスのボトルネックになっていませんか?性能アップを10分の1のコストで実現を

編集部おすすめ

カテゴリ・テーマ特集ページ[PR]

サーバ
PC・モバイル
ストレージ
ネットワーク
仮想化
クラウドサービス
OS・ミドルウェア
開発
データベース
運用
セキュリティ
新興技術
財務・経理
人事・労務
マーケ・営業
購買・調達
生産・製造
データ分析
コミュニケーション
通信・通話
文書・コンテンツ
サイト構築
PCソフト
学習

ベンダー座談会

Follow TechRepublic Japan

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]