目次:
定義-Hadoop分散ファイルシステム(HDFS)とはどういう意味ですか?
Hadoop分散ファイルシステム(HDFS)は、標準またはローエンドのハードウェアで実行される分散ファイルシステムです。 Apache Hadoopによって開発されたHDFSは、標準の分散ファイルシステムのように機能しますが、MapReduceアルゴリズム、高いフォールトトレランス、および大規模なデータセットのネイティブサポートを通じて、データスループットとアクセスを向上させます。
TechopediaがHadoop分散ファイルシステム(HDFS)について説明しています
HDFSは、通常数百および数千の同時接続ノードにある複数のマシンに配置された大量のデータを保存し、各データインスタンスを3つの異なるコピーとして複製することでデータの信頼性を提供します。 これらのコピーは、障害が発生した場合に交換できます。
HDFSアーキテクチャはクラスターで構成され、各クラスターは、そのクラスターのファイルシステムとユーザーアクセスメカニズムを監視および管理するために、個別のマシンにインストールされた単一のNameNodeソフトウェアツールを介してアクセスされます。 他のマシンは、DataNodeの1つのインスタンスをインストールして、クラスターストレージを管理します。
HDFSはJavaで記述されているため、アプリケーションの統合とアクセシビリティのためにJavaアプリケーションプログラミングインターフェイス(API)をネイティブにサポートしています。 また、標準のWebブラウザーからアクセスすることもできます。
