• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Gigabajt

    Przeczytaj także...
    Miliard – liczba o wartości: 1 000 000 000 = 10 (tysiąc milionów), w krajach stosujących długą skalę (w tym w Polsce).Informatyka – dyscyplina nauki zaliczana do nauk ścisłych oraz techniki zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację. Początkowo stanowiła część matematyki, później rozwinęła się do odrębnej dyscypliny – pozostaje jednak nadal w ścisłej relacji z matematyką, która dostarcza informatyce podstaw teoretycznych.
    Pamięć masowa, (ang.) mass storage memory – jest to pamięć trwała, przeznaczona do długotrwałego przechowywania dużych ilości danych. Pamięć masowa, w odróżnieniu od pamięci operacyjnej, nie adresuje pojedynczych bajtów oraz ma wydłużony czas dostępu.

    Gigabajt (skrót GB) lub gibibajt (skrót GiB) – jednostki używane w informatyce oznaczające odpowiednio miliard (1 000 000 000 = 10) bajtów i 2, czyli 1 073 741 824 = 1024 bajtów

    Stosowana m.in. do określania pojemności dużych pamięci masowych. Współczesne dyski twarde posiadają pojemność liczoną w setkach, a nawet tysiącach gigabajtów.

    Zgodnie ze standardem IEC 60027-2 w systemie przedrostków dwójkowych (binarnych) obowiązują zależności:

    Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.Jednostki informacji – najmniejszą jednostką informacji jest bit. Skróconym symbolem bitu jest b. Wyższe jednostki to:
    1 GiB = 1024 MiB = 1024 · 1024 kiB = 1024 · 1024 · 1024 B

    , natomiast w systemie przedrostków dziesiętnych SI: 1 GB = 1000 MB = 1000 · 1000 kB = 1000 · 1000 · 1000 B

    Jednak w informatyce przedrostek giga oznacza często liczbę 1024 = 1 073 741 824, która jest wynikiem działania 2 (w odróżnieniu do układu SI, gdzie: 10 = 1 000 000 000). Formalnie, aby zapewnić jednoznaczność, powinien być używany przedrostek gibi, który oznacza właśnie 1024 · 1024 · 1024, a jednostka nosi nazwę gibibajt i ma skrót GiB – w praktyce jednak utarła się nazwa standardu JEDEC. Ta niekonsekwencja jest często przyczyną nadużyć producentów nośników pamięci czy urządzeń, które je wykorzystują. Producent może przykładowo podać w specyfikacji, że urządzenie ma pojemność 1 GB, co można odczytać jako 1 073 741 824 bajty, w rzeczywistości zaś produkt ma tylko 1 000 000 000 bajtów, czyli o ok. 70 MiB mniej; mimo to zgodnie z wartością określoną przez przedrostek SI produkt ma właściwą pojemność.

    Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci.Jednostka miary wielkości fizycznej lub umownej – określona miara danej wielkości służąca za miarę podstawową, czyli wzorzec do ilościowego wyrażania innych miar danej wielkości metodą porównania tych miar, za pomocą liczb. Wartość liczbową takiej miary wzorcowej przyjmuje się umownie (w danym układzie jednostek miar), jako równą jedności, stąd jej nazwa – jednostka miary. Konkretne wartości wielkości można przedstawiać zarówno wielokrotnościami, jak i ułamkami jednostek, a same wartości, o ile to możliwe, mogą być zarówno dodatnie, jak i ujemne.

    Zobacz też[]

  • Przedrostek dwójkowy
  • Jednostka informacji
  • Giga



  • w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

    Reklama

    Czas generowania strony: 0.013 sek.