目次:
定義-オープンソースのビッグデータ分析とはどういう意味ですか?
オープンソースのビッグデータ分析とは、組織がビジネス目標を推進するために使用できる関連性のある実用的な情報を収集するために、大量のデータを分析するためのオープンソースソフトウェアとツールの使用を指します。 オープンソースのビッグデータ分析の最大のプレーヤーはApacheのHadoopです。これは、並列処理の分散プロセスを使用してコンピューターのクラスター全体で膨大なデータセットを処理するために最も広く使用されているソフトウェアライブラリです。
Techopediaがオープンソースのビッグデータ分析を説明
オープンソースのビッグデータ分析では、ソフトウェアプラットフォーム全体を使用するか、データ分析のプロセスのさまざまなタスクにさまざまなオープンソースツールを使用して、ビッグデータ分析を実行するために、オープンソースのソフトウェアとツールを使用します。 Apache Hadoopはビッグデータ分析で最もよく知られているシステムですが、実際の分析システムを組み立てるには他のコンポーネントが必要です。
Hadoopは、GoogleとYahooが開発したMapReduceアルゴリズムのオープンソース実装であるため、今日のほとんどの分析システムの基盤となっています。 多くのビッグデータ分析ツールは、オープンソースMongoDBなどの堅牢なデータベースシステムなど、オープンソースを利用しています。これは、ビッグデータアプリケーションなどに非常に適した洗練されたスケーラブルなNoSQLデータベースです。
オープンソースのビッグデータ分析サービスには以下が含まれます。
- データ収集システム
- クラスタを管理および監視するためのコントロールセンター
- 機械学習およびデータマイニングライブラリ
- アプリケーション調整サービス
- 計算エンジン
- 実行フレームワーク
