1。
ビッグデータ(ビッグデータ)は、データの収集を指し、キャプチャ、管理および特定の時間枠内で、従来のソフトウェアツールを用いて処理することができない、新しいモデルは、より大きな意思決定力を持つために処理が必要、質量の強さと洞察発見プロセスの最適化機能、高い成長率と多様な情報資産。
ビッグデータ時代は静かにそれが情報技術の開発、および社会的生産と人々の生活のあらゆる側面に大きな影響を与え革命をもたらした、来ます。
ビッグデータ時代
情報技術、完全にオープンなビッグデータ時代の第三の高騰の波。
クォックセレン酸ナトリウムIBM元最高経営責任者(CEO)の観点によると、15年のIT分野では大きな変化間隔の到来を告げます。
情報技術の問題の波タイムスタンプを解決するために、企業の代理を発生
インテル、AMD、IBM、アップルなどの処理1980のパーソナルコンピュータの情報の最初の波の後に
インターネット等の情報伝達ヤフー、グーグル、アリババ、数年後に第二波1995
2010年物事の後に第三の波、クラウド・コンピューティングとビッグデータ情報爆発アマゾン、グーグル、IBMや他の
人間社会は三つの段階を経た道を生成するデータ:
運用段階のシステムでは、ユーザー生成コンテンツ相、相認識システム。
開発プロセスビッグデータ:
乳児期:
21世紀の表情に、1990年代、データベース技術は、データマイニングの段階として知られている、高度なデータマイニング論、成熟しています。
成熟度:
21世紀の最初の10年間は、非構造化データの多くは、難しい伝統的なデータベース処理はまた、非構造化データフェーズとして知られている、に対処します。、そのコア技術は、分散ファイルシステムGFS、分散コンピューティングフレームワークのMapReduce、分散ロックチャビー、および分散データベースが含まれる:Googleは、「Googleはファイルシステム」と「MapReduceのデータ処理の簡単なクラスタをもとに、」2本の論文を発表しましたBigTableの、この期間中に大きなデータの研究の焦点は、性能、クラウド・コンピューティングであった、大規模なデータは、並列計算アルゴリズム、ならびにオープンソース分散アーキテクチャ(Hadoopの)を設定します。
大規模アプリケーション期間:
大規模なデータ・ベースの技術が成熟した後、2010年以降、学界と産業界がシフトし、応用研究を始めている、2013年ビッグデータテクノロジーは、ビジネス、テクノロジー、ヘルスケア、政府、教育、経済、交通、物流、社会的分野に始まりました浸透するので、2013年は、ビッグデータの最初の年として知られています。
ビッグデータの4つの特性:
1.データの量
データ・タイプの2範囲
3.処理速度
4.低密度値