Bajt

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

ARPANET (ang. Advanced Research Projects Agency Network) – pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP. Jest bezpośrednim przodkiem Internetu. Istnieje do dzisiaj.Odra 1300 – seria polskich komputerów mainframe z serii Odra produkowanych w Elwro na licencji angielskiej firmy ICL.

Zwykle przyjmuje się, że jeden bajt to 8 bitów, choć to nie wynika z powyższej definicji. W związku z tym, w praktyce jeden bajt może zawierać dowolną liczbę bitów. Aby uniknąć niejednoznaczności, jednostka składająca się z ośmiu bitów zwana jest również oktetem. Bywa też, że bajt definiuje się jako 8 bitów, a najmniejszą adresowalną jednostkę pamięci – jako znak (ang. char).

Półbajt (ang. nibble, nybble) – połowa bajtu. Przy najczęściej spotykanym bajcie ośmiobitowym (oktecie), półbajt ma długość 4 bitów, czyli może przybierać jedną z 16 różnych wartości. Pozwala to na zapisanie pojedynczej cyfry z szesnastkowego systemu liczbowego, co przedstawia poniższa tabela.W informatyce, adres pamięci to unikatowy identyfikator dla części jednostkowej pamięci, w której CPU lub inne urządzenie może zachować pewną ilość danych do późniejszego wykorzystania. W nowoczesnych komputerach każdy adres identyfikuje pojedynczy bajt pamięci; dane za duże do przechowania w jednym bajcie mogą być zachowane w kilku bajtach o następujących po sobie adresach. Niektóre mikroprocesory zostały zaprojektowane aby być adresowalne dwubajtowo, czyli typowa jednostka przechowywania jest większa od bajta. Wśród przykładów znajdują się Texas Instruments TMS9900 i National Semiconductor IMP-16, wykorzystujące ten typ adresowania.

W starszych maszynach nie stosowano pojęcia bajt ani oktet, najmniejszą jednostką było słowo maszynowe (np. 24-bitowe w maszynach standardu ICL, jak polskie Odry, albo 60-bitowe w maszynach CDC, czy 36-bitowe w Honeywell). W Odrach serii 1300 rozkazy działające na znakach adresowały pojedynczy znak używając specjalnego dla nich trybu adresowania (dodatkowych 2 bitów adresu znaku w słowie).

Internet Engineering Task Force to nieformalne, międzynarodowe stowarzyszenie osób zainteresowanych ustanawianiem standardów technicznych i organizacyjnych w Internecie.Control Data Corporation (CDC) – amerykański producent komputerów i urządzeń peryferyjnych, w latach sześćdziesiątych i siedemdziesiątych XX wieku jedna z najważniejszych amerykańskich firm komputerowych, producent pierwszych superkomputerów. Firma została ostatecznie zlikwidowana, a marka zniknęła z rynku w końcu lat osiemdziesiątych.

Ośmiobitowy bajt można podzielić na dwa czterobitowe nibble lub nybble (od ang. nibble – kęsek) bądź tetrady. Wyróżnia się mniej znaczący (dolny) i bardziej znaczący (górny) nibble/tetradę, składające się odpowiednio z bitów 0–3 i 4–7. Spotyka się też określenie strefa i cyfra wywodzące się od kodowania znaków kodem EBCDIC, oznaczające odpowiednio starszą i młodszą tetradę. Określenia nibble używa się często przy operacjach w kodzie BCD lub skompresowanym BCD.

PDP-10 – rodzina komputerów klasy mainframe produkowanych przez DEC. Nazwa oznacza "Programmed Data Processor model 10". Była to pierwsza maszyna, na której dzielenie czasu stało się powszechną praktyką. Maszyna ta odegrała istotną rolę w historii społeczności hakerskiej między innymi ze względu na użycie jej w projektach laboratorium sztucznej inteligencji MIT i Uniwersytetu Stanforda, jak również Computer Center Corporation i Carnegie Mellon University.Przedrostek SI – prefiks wyrażający wielokrotności i podwielokrotności jednostek miar opartych o system metryczny. Przedrostki zostały wdrożone w ramach układu SI, choć okazjonalnie stosuje się je także do jednostek spoza tego systemu (np. mililitr czy milisekunda kątowa).

Historia[ | edytuj kod]

Jako pierwszy, terminu bajt użył Werner Buchholz w lipcu 1956 podczas projektowania komputera IBM Stretch. Początkowo oznaczał dane 4-bitowe, co pozwalało na zapis 16 różnych liczb, lecz na etapie produkcji został zredukowany do 3 bitów (8 różnych liczb) – główne operacje komputerowe wykorzystywały bajt 3-bitowy. Bajt 8-bitowy został upowszechniony jako standard wraz z pojawieniem się komputera IBM System/360. Słowo bajt (ang. byte) powstało od angielskiego bite (kęs), jako najmniejsza porcja danych, którą komputer może „ugryźć” za jednym razem (czyli pobrać, zapisać, przetworzyć). Dzięki temu unikano pomyłek z bitem, jednak było to także spowodowane skłonnością ówczesnych naukowców do przeobrażania i tworzenia nowych nazw. Bajt również był nazywany „8-bitowym bajtem” dla podkreślenia, że jest zestawem n bitów, gdyż może składać się także z innej ich liczby:

RFC (ang. Request for Comments – dosłownie: prośba o komentarze) – zbiór technicznych oraz organizacyjnych dokumentów mających formę memorandum związanych z Internetem oraz sieciami komputerowymi. Każdy z nich ma przypisany unikatowy numer identyfikacyjny, zwykle używany przy wszelkich odniesieniach. Publikacją RFC zajmuje się Internet Engineering Task Force.Asembler (z ang. assembler) – termin informatyczny związany z programowaniem i tworzeniem kodu maszynowego dla procesorów. W języku polskim oznacza on program tworzący kod maszynowy na podstawie kodu źródłowego (tzw. asemblacja) wykonanego w niskopoziomowym języku programowania bazującym na podstawowych operacjach procesora zwanym językiem asemblera, popularnie nazywanym również asemblerem. W tym artykule język programowania nazywany będzie językiem asemblera, a program tłumaczący – asemblerem.
  1. Sekwencja sąsiadujących bitów w szeregowym strumieniu danych (modemy, komunikacja satelitarna lub dane z głowicy dysku twardego), która jest najmniejszą jednostką informacji. Takie bajty mogą zawierać bity startu, bity stopu, bity parzystości, składając się z 7 do 12 bitów, wśród których zawarty jest pojedynczy 7-bitowy kod ASCII.
  2. Typ danych w określonych językach programowania. Język C oraz C++ definiują bajt jako „adresowalna jednostka danych, na tyle duża, by można było do niej przypisać każdy znak z zestawu znaków środowiska wykonawczego” (paragraf 3.6 standardu C). Typ danych char języka C musi zawierać co najmniej 8 bitów (paragraf 5.2.4.2.1), stąd bajtem może być jedna z 256 różnych wartości (bez względu na to, czy dana to signed char czy unsigned char). Różne implementacje języka C i C++ definiują bajt jako daną 8-, 9-, 16-, 32- lub 36-bitową. Właściwa liczba bitów w poszczególnych implementacjach jest podana jako wartość CHAR_BIT w pliku nagłówkowym limits.h. W Javie bajt jest zawsze zdefiniowany jako 8-bitowy, będący typem danych ze znakiem (ang. signed data type), stąd obejmuje wartości od -128 do 127.

Wczesne mikroprocesory, takie jak Intel 8008 (poprzednik 8080 i 8086), mogły wykonywać niektóre operacje na 4 bitach, takie jak np. DAA (ang. Decimal Adjust after Addition) oraz ustawianie flagi half carry (połowicznego przeniesienia), które służyły do implementacji arytmetyki dziesiętnej. Te 4-bitowe typy danych nosiły nazwę nibble (kęsek).

Intel 8080 jest jednym z pierwszych mikroprocesorów, wyprodukowany przez Intela w kwietniu 1974. Jest 8-bitowym mikroprocesorem wykonanym w technologii n-MOS, pracującym z częstotliwością taktowania 2 MHz. Jest on uniwersalną jednostką centralną złożoną z jednostki arytmetyczno-logicznej, rejestrów roboczych i układu sterowania. Dane i instrukcje są przesyłane do i z pamięci za pośrednictwem 8-bitowej szyny danych, pamięć jest adresowana 16-bitową szyną adresową.Honeywell - amerykański koncern przemysłowy związany z automatyką o długoletniej tradycji, założony w roku 1906 z siedzibą główną w Morristown w stanie New Jersey.

Historyczne dokumenty IETF opisują różne przykłady bajtów. RFC 608 podaje rozmiar bajta dla hostów FTP (atrybut FTP-BYTE-SIZE w tablicy hostów ARPANET) jako 36 bitów dla komputerów PDP-10 i 32 bity dla IBM 360.

Podstrony: 1 [2] [3]




Warto wiedzieć że... beta

FTP, protokół transferu plików (ang. File Transfer Protocol) – protokół komunikacyjny typu klient-serwer wykorzystujący protokół TCP według modelu TCP/IP (krótko: połączenie TCP), umożliwiający dwukierunkowy transfer plików w układzie serwer FTP–klient FTP.
8086 – 16-bitowy mikroprocesor wprowadzony na rynek 8 czerwca 1978 roku. Posiadał także oznaczenia: 8086-1, 8086-2, 8086-4, iAPX 86/10, a dla wykonywanych w technologii CMOS: 80C86, 80C86-2, 80C86A.
Pamięć komputerowa to różnego rodzaju urządzenia i bloki funkcjonalne komputera, służące do przechowywania danych i programów (systemu operacyjnego oraz aplikacji). Potocznie przez "pamięć komputerową" rozumie się samą pamięć operacyjną.
Znakowy typ danych (ang.) character data type – typ danych stosowany w wielu językach programowania, reprezentujący jeden znak tekstu.
Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.
Oktet – jednostka informacji składająca się z 8 bitów. Dla większości komputerów oktet jest również najmniejszą adresowalną jednostką pamięci, czyli bajtem, przez co pojęcia te często są używane zamiennie. Jednak rozmiar bajtu zależy od architektury konkretnego systemu komputerowego: niektóre starsze maszyny używały większych bajtów, składających się z 9, 10 lub 12 bitów, inne mniejszych – 5-, 6-bitowych. Pojęcie oktetu natomiast zawsze oznacza dokładnie 8 bitów i jest najczęściej spotykane w standardach sieciowych.
Bel – logarytmiczna jednostka miary wielkości ilorazowych, oznaczana symbolem B. Jest wielkością bezwymiarową (liczbą niemianowaną), zaś określenia bel lub decybel używa się, aby zasygnalizować, że użyto miary ilorazowo-logarytmicznej.

Reklama