ハードウェア ギガビット(gb)とは何ですか? -techopediaからの定義

ギガビット(gb)とは何ですか? -techopediaからの定義

目次:

Anonim

定義-ギガビット(Gb)とはどういう意味ですか?

ギガビット(Gb)は、デジタルデータ転送速度(DTR)とダウンロード速度に適用されるデータ測定単位です。 1 Gbは10億(1, 000, 000, 000または10 9 )ビットに相当します。

国際単位系(SI)は、ギガプレフィックスをデータストレージの10 9乗数または10億(1, 000, 000, 000)ビットとして定義します。 バイナリギガプレフィックスは、1, 073, 741, 824(1024 3または2 30 )ビットを表します。 SIとバイナリの差分は約4.86%です。

Techopediaはギガビット(Gb)について説明します

中央処理装置(CPU)は、最小のデータ測定単位であるビットのデータ制御命令で構築されています。 ビットは、ランダムアクセスメモリ(RAM)または読み取り専用メモリ(ROM)に格納されたデジタルデータを表す、磁化および分極された2進数です。 ビットは秒単位で測定され、高電圧0(オン)または1(オフ)の値で特徴付けられます。

ほとんどのネットワークは、モデム、FireWire、またはユニバーサルシリアルバス(USB)の速度を測定するときにGbのSIバージョンを適用しますが、GbのバイナリバージョンはDTR速度をほとんど参照せず、RAMおよび光ファイバーケーブルを測定します。 ソフトウェアグループとファイリングシステムは、多くの場合、要件に応じてバイナリとSI Gbユニットを組み合わせます。

2000年に、米国電気電子技術者協会(IEEE)は、国際電気標準会議(IEC)のSIメトリックプレフィックス(たとえば、MBを100万バイト、KBを1000バイト)の正式承認を取り入れました。 新たに追加されたメトリック用語は次のとおりです。

  • キビバイト(KiB)は1, 024バイトです。

  • メビバイト(MiB)は1, 048, 576バイトです。

  • ギビバイト(GiB)は1, 073, 741, 824バイトです。
ギガビット(gb)とは何ですか? -techopediaからの定義