Gigabajt

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania


Gigabajt (skrót GB) lub gibibajt (skrót GiB) – jednostki używane w informatyce oznaczające odpowiednio miliard (1 000 000 000 = 10) bajtów i 2, czyli 1 073 741 824 = 1024 bajtów.

Przedrostek SI – prefiks wyrażający wielokrotności i podwielokrotności jednostek miar opartych o system metryczny. Przedrostki zostały wdrożone w ramach układu SI, choć okazjonalnie stosuje się je także do jednostek spoza tego systemu (np. mililitr czy milisekunda kątowa). Informatyka – dyscyplina nauki zaliczana do nauk ścisłych oraz techniki zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację. Początkowo stanowiła część matematyki, później rozwinęła się do odrębnej dyscypliny – pozostaje jednak nadal w ścisłej relacji z matematyką, która dostarcza informatyce podstaw teoretycznych.

Stosowana m.in. do określania pojemności dużych pamięci masowych. Współczesne dyski twarde posiadają pojemność liczoną w setkach, a nawet tysiącach gigabajtów.

Zgodnie ze standardem IEC 60027-2 w systemie przedrostków dwójkowych (binarnych) obowiązują zależności:

1 GiB = 1024 MiB = 1024 · 1024 KiB = 1024 · 1024 · 1024 B

natomiast w systemie przedrostków dziesiętnych SI:

Pamięć masowa, (ang.) mass storage memory – jest to pamięć trwała, przeznaczona do długotrwałego przechowywania dużych ilości danych. Pamięć masowa, w odróżnieniu od pamięci operacyjnej, nie adresuje pojedynczych bajtów oraz ma wydłużony czas dostępu.Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.
1 GB = 1000 MB = 1000 · 1000 kB = 1000 · 1000 · 1000 B

Jednak w informatyce przedrostek giga oznacza często liczbę 1024 = 1 073 741 824, która jest wynikiem działania 2 (w odróżnieniu do układu SI, gdzie: 10 = 1 000 000 000). Formalnie, aby zapewnić jednoznaczność, powinien być używany przedrostek gibi, który oznacza właśnie 1024 × 1024 × 1024, a jednostka nosi nazwę gibibajt i ma skrót GiB, co zostało zaproponowane przez IEC – w praktyce jednak utarła się nazwa standardu JEDEC. Ta niekonsekwencja jest często przyczyną nadużyć producentów nośników pamięci czy urządzeń, które je wykorzystują. Producent może przykładowo podać w specyfikacji, że urządzenie ma pojemność 1 GB, co można odczytać jako 1 073 741 824 bajty, w rzeczywistości zaś produkt ma tylko 1 000 000 000 bajtów, czyli o ok. 70 MiB mniej; mimo to zgodnie z wartością określoną przez przedrostek SI produkt ma właściwą pojemność.

Jednostki informacji – najmniejszą jednostką informacji jest bit. Skróconym symbolem bitu jest b. Wyższe jednostki to:Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci.

Zobacz też[ | edytuj kod]

  • Przedrostek dwójkowy
  • Jednostka informacji
  • Giga
  • Przypisy[ | edytuj kod]

    1. gigabajt, [w:] Encyklopedia PWN [online] [dostęp 2021-10-15].




    Warto wiedzieć że... beta

    Nośnik danych – przedmiot fizyczny, na którym możliwe jest zapisanie informacji i z którego możliwe jest późniejsze odczytanie tej informacji. Pojęcie nośnika danych jest ściśle związane z informatyką i komputerami, choć definicja powyższa nie wyklucza uznania za nośnik danych np. kartki papieru.
    Jednostka miary wielkości fizycznej lub umownej – określona miara danej wielkości służąca za miarę podstawową, czyli wzorzec do ilościowego wyrażania innych miar danej wielkości metodą porównania tych miar, za pomocą liczb. Wartość liczbową takiej miary wzorcowej przyjmuje się umownie (w danym układzie jednostek miar), jako równą jedności, stąd jej nazwa – jednostka miary. Konkretne wartości wielkości można przedstawiać zarówno wielokrotnościami, jak i ułamkami jednostek, a same wartości, o ile to możliwe, mogą być zarówno dodatnie, jak i ujemne.
    Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

    Reklama