Q:
ビッグデータ分析のニーズを満たすために、既存のデータウェアハウス環境はどのように最適に拡張できますか?
A:個々のデータウェアハウスプロジェクトは、ケースバイケースで評価する必要があります。 一般に、ビッグデータ分析の処理を改善するために既存のデータウェアハウスの設計を拡張しようとすると、何をする必要があるかを判断するためのコアプロセスがあります。 ITプロフェッショナルは、これを「スケールアップ」または「スケールアウト」と呼ぶことができます。
ウェビナー:Big Iron、Meet Big Data:Hadoop&Sparkを使用したメインフレームデータの解放 ここに登録 |
一般に、スケールアップには、十分な処理能力の取得、十分なメモリの取得、およびビジネスが処理するより大きなデータセットのすべてを処理するためのより強力なサーバーアクティビティの調整が含まれます。 対照的に、スケールアウトとは、サーバーハードウェアのクラスターを収集し、それらを相互にネットワーク化してビッグデータを収集することです。
一部のIT専門家は、Apache Hadoopおよびその他の一般的なビッグデータツールおよびプラットフォームでより一般的な方法は、ハードウェアをスケールアウトして、目的の効果を達成することであると示唆しています。 ただし、今日の技術では、データウェアハウスは、大量のRAMとともにより多くの処理コアを取得するなど、サーバーにリソースを追加する調達戦略を使用してスケールアップできると指摘しています。
データウェアハウスは、スケールアップまたはスケールアウトにかかわらず、より大きなデータワークロードを処理できるように追加の物理ハードウェア資産が必要です。 また、追加の人的管理も必要です。これは、内部チームのトレーニングを増やすことを意味します。 新しいビッグデータエコシステムに対応するために、既存のレガシーシステムに大きなデータワークロードがどのようなストレスと圧力をかけるかを決定するために、多くの計画をプロジェクトに組み込む必要があります。 大きな問題の1つは、ストレージセンターへのアップグレードが必要なストレージボトルネックと、対処しないと発生期のシステムを妨害する可能性があるその他の種類のパフォーマンスボトルネックです。