Giga

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Giga – przedrostek jednostki miary o symbolu G oznaczający mnożnik 1 000 000 000 = 10 (miliard).

Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.Jednostka miary wielkości fizycznej lub umownej – określona miara danej wielkości służąca za miarę podstawową, czyli wzorzec do ilościowego wyrażania innych miar danej wielkości metodą porównania tych miar, za pomocą liczb. Wartość liczbową takiej miary wzorcowej przyjmuje się umownie (w danym układzie jednostek miar), jako równą jedności, stąd jej nazwa – jednostka miary. Konkretne wartości wielkości można przedstawiać zarówno wielokrotnościami, jak i ułamkami jednostek, a same wartości, o ile to możliwe, mogą być zarówno dodatnie, jak i ujemne.

W informatyce często używa się jednostki gigabajt jako 1024 MB, jednak, aby uniknąć nieporozumień powinno się używać gigabajta jako 1000 MB, a gibibajta jako 1024 MiB (zob. przedrostek dwójkowy). Należy jednak zauważyć, że producenci pamięci RAM używają jednostki gigabajta, jako 1024 MiB, natomiast producenci dysków twardych, jako 1000 MB, w zależności od przyjętej strategii marketingowej.





Reklama