• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Gigabajt

    Przeczytaj także...
    Międzynarodowa Komisja Elektrotechniczna (ang. International Electrotechnical Commission, skrót IEC) to globalna organizacja opracowująca i publikująca międzynarodowe normy z zakresu technik elektrycznych i elektronicznych oraz dziedzin z nimi związanych. Służy to za podstawę norm krajowych oraz jako odniesienie dla przetargów i kontraktów międzynarodowych.Miliard – liczba o wartości: 1 000 000 000 = 10 (tysiąc milionów), w krajach stosujących długą skalę (w tym w Polsce).
    Przedrostek SI – prefiks wyrażający wielokrotności i podwielokrotności jednostek miar opartych o system metryczny. Przedrostki zostały wdrożone w ramach układu SI, choć okazjonalnie stosuje się je także do jednostek spoza tego systemu (np. mililitr czy milisekunda kątowa).

    Gigabajt (skrót GB) lub gibibajt (skrót GiB) – jednostki używane w informatyce oznaczające odpowiednio miliard (1 000 000 000 = 10) bajtów i 2, czyli 1 073 741 824 = 1024 bajtów.

    Stosowana m.in. do określania pojemności dużych pamięci masowych. Współczesne dyski twarde posiadają pojemność liczoną w setkach, a nawet tysiącach gigabajtów.

    Zgodnie ze standardem IEC 60027-2 w systemie przedrostków dwójkowych (binarnych) obowiązują zależności:

    Informatyka – dyscyplina nauki zaliczana do nauk ścisłych oraz techniki zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację. Początkowo stanowiła część matematyki, później rozwinęła się do odrębnej dyscypliny – pozostaje jednak nadal w ścisłej relacji z matematyką, która dostarcza informatyce podstaw teoretycznych.Pamięć masowa, (ang.) mass storage memory – jest to pamięć trwała, przeznaczona do długotrwałego przechowywania dużych ilości danych. Pamięć masowa, w odróżnieniu od pamięci operacyjnej, nie adresuje pojedynczych bajtów oraz ma wydłużony czas dostępu.
    1 GiB = 1024 MiB = 1024 · 1024 KiB = 1024 · 1024 · 1024 B
    

    natomiast w systemie przedrostków dziesiętnych SI:

    1 GB = 1000 MB = 1000 · 1000 kB = 1000 · 1000 · 1000 B
    

    Jednak w informatyce przedrostek giga oznacza często liczbę 1024 = 1 073 741 824, która jest wynikiem działania 2 (w odróżnieniu do układu SI, gdzie: 10 = 1 000 000 000). Formalnie, aby zapewnić jednoznaczność, powinien być używany przedrostek gibi, który oznacza właśnie 1024 × 1024 × 1024, a jednostka nosi nazwę gibibajt i ma skrót GiB, co zostało zaproponowane przez IEC – w praktyce jednak utarła się nazwa standardu JEDEC. Ta niekonsekwencja jest często przyczyną nadużyć producentów nośników pamięci czy urządzeń, które je wykorzystują. Producent może przykładowo podać w specyfikacji, że urządzenie ma pojemność 1 GB, co można odczytać jako 1 073 741 824 bajty, w rzeczywistości zaś produkt ma tylko 1 000 000 000 bajtów, czyli o ok. 70 MiB mniej; mimo to zgodnie z wartością określoną przez przedrostek SI produkt ma właściwą pojemność.

    Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.Jednostki informacji – najmniejszą jednostką informacji jest bit. Skróconym symbolem bitu jest b. Wyższe jednostki to:

    Zobacz też[ | edytuj kod]

  • Przedrostek dwójkowy
  • Jednostka informacji
  • Giga



  • w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci.
    Nośnik danych – przedmiot fizyczny, na którym możliwe jest zapisanie informacji i z którego możliwe jest późniejsze odczytanie tej informacji. Pojęcie nośnika danych jest ściśle związane z informatyką i komputerami, choć definicja powyższa nie wyklucza uznania za nośnik danych np. kartki papieru.
    Jednostka miary wielkości fizycznej lub umownej – określona miara danej wielkości służąca za miarę podstawową, czyli wzorzec do ilościowego wyrażania innych miar danej wielkości metodą porównania tych miar, za pomocą liczb. Wartość liczbową takiej miary wzorcowej przyjmuje się umownie (w danym układzie jednostek miar), jako równą jedności, stąd jej nazwa – jednostka miary. Konkretne wartości wielkości można przedstawiać zarówno wielokrotnościami, jak i ułamkami jednostek, a same wartości, o ile to możliwe, mogą być zarówno dodatnie, jak i ujemne.
    Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

    Reklama

    Czas generowania strony: 0.01 sek.