• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Bajt



    Podstrony: 1 [2] [3]
    Przeczytaj także...
    Międzynarodowa Komisja Elektrotechniczna (ang. International Electrotechnical Commission, skrót IEC) to globalna organizacja opracowująca i publikująca międzynarodowe normy z zakresu technik elektrycznych i elektronicznych oraz dziedzin z nimi związanych. Służy to za podstawę norm krajowych oraz jako odniesienie dla przetargów i kontraktów międzynarodowych.Typ – w językach programowania opis rodzaju, struktury i zakresu wartości, jakie może przyjmować dany literał, zmienna, stała, argument, wynik funkcji lub wartość.

    Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów.

    Zwykle przyjmuje się, że jeden bajt to 8 bitów, choć to nie wynika z powyższej definicji. W związku z tym, w praktyce jeden bajt może zawierać dowolną liczbę bitów. Aby uniknąć niejednoznaczności, jednostka składająca się z ośmiu bitów zwana jest również oktetem. Bywa też, że bajt definiuje się jako 8 bitów, a najmniejszą adresowalną jednostkę pamięci – jako znak (ang. char).

    ARPANET (ang. Advanced Research Projects Agency Network) – pierwsza sieć rozległa oparta na rozproszonej architekturze i protokole TCP/IP. Jest bezpośrednim przodkiem Internetu. Istnieje do dzisiaj.Odra 1300 – seria polskich komputerów mainframe z serii Odra produkowanych w Elwro na licencji angielskiej firmy ICL.

    W starszych maszynach nie stosowano pojęcia bajt ani oktet, najmniejszą jednostką było słowo maszynowe (np. 24-bitowe w maszynach standardu ICL, jak polskie Odry, albo 60-bitowe w maszynach CDC, czy 36-bitowe w Honeywell). W Odrach serii 1300 rozkazy działające na znakach adresowały pojedynczy znak używając specjalnego dla nich trybu adresowania (dodatkowych 2 bitów adresu znaku w słowie).

    Półbajt (ang. nibble, nybble) – połowa bajtu. Przy najczęściej spotykanym bajcie ośmiobitowym (oktecie), półbajt ma długość 4 bitów, czyli może przybierać jedną z 16 różnych wartości. Pozwala to na zapisanie pojedynczej cyfry z szesnastkowego systemu liczbowego, co przedstawia poniższa tabela.W informatyce, adres pamięci to unikatowy identyfikator dla części jednostkowej pamięci, w której CPU lub inne urządzenie może zachować pewną ilość danych do późniejszego wykorzystania. W nowoczesnych komputerach każdy adres identyfikuje pojedynczy bajt pamięci; dane za duże do przechowania w jednym bajcie mogą być zachowane w kilku bajtach o następujących po sobie adresach. Niektóre mikroprocesory zostały zaprojektowane aby być adresowalne dwubajtowo, czyli typowa jednostka przechowywania jest większa od bajta. Wśród przykładów znajdują się Texas Instruments TMS9900 i National Semiconductor IMP-16, wykorzystujące ten typ adresowania.

    Ośmiobitowy bajt można podzielić na dwa czterobitowe nibble lub nybble (od ang. nibble – kęsek) bądź tetrady. Wyróżnia się mniej znaczący (dolny) i bardziej znaczący (górny) nibble/tetradę, składające się odpowiednio z bitów 0–3 i 4–7. Spotyka się też określenie strefa i cyfra wywodzące się od kodowania znaków kodem EBCDIC, oznaczające odpowiednio starszą i młodszą tetradę. Określenia nibble używa się często przy operacjach w kodzie BCD lub skompresowanym BCD.

    Internet Engineering Task Force to nieformalne, międzynarodowe stowarzyszenie osób zainteresowanych ustanawianiem standardów technicznych i organizacyjnych w Internecie.Control Data Corporation (CDC) – amerykański producent komputerów i urządzeń peryferyjnych, w latach sześćdziesiątych i siedemdziesiątych XX wieku jedna z najważniejszych amerykańskich firm komputerowych, producent pierwszych superkomputerów. Firma została ostatecznie zlikwidowana, a marka zniknęła z rynku w końcu lat osiemdziesiątych.

    Historia[ | edytuj kod]

    Jako pierwszy, terminu bajt użył Werner Buchholz w lipcu 1956 podczas projektowania komputera IBM Stretch. Początkowo oznaczał dane 4-bitowe, co pozwalało na zapis 16 różnych liczb, lecz na etapie produkcji został zredukowany do 3 bitów (8 różnych liczb) – główne operacje komputerowe wykorzystywały bajt 3-bitowy. Bajt 8-bitowy został upowszechniony jako standard wraz z pojawieniem się komputera IBM System/360. Słowo bajt (ang. byte) powstało od angielskiego bite (kęs), jako najmniejsza porcja danych, którą komputer może „ugryźć” za jednym razem (czyli pobrać, zapisać, przetworzyć). Dzięki temu unikano pomyłek z bitem, jednak było to także spowodowane skłonnością ówczesnych naukowców do przeobrażania i tworzenia nowych nazw. Bajt również był nazywany „8-bitowym bajtem” dla podkreślenia, że jest zestawem n bitów, gdyż może składać się także z innej ich liczby:

    PDP-10 – rodzina komputerów klasy mainframe produkowanych przez DEC. Nazwa oznacza "Programmed Data Processor model 10". Była to pierwsza maszyna, na której dzielenie czasu stało się powszechną praktyką. Maszyna ta odegrała istotną rolę w historii społeczności hakerskiej między innymi ze względu na użycie jej w projektach laboratorium sztucznej inteligencji MIT i Uniwersytetu Stanforda, jak również Computer Center Corporation i Carnegie Mellon University.Przedrostek SI – prefiks wyrażający wielokrotności i podwielokrotności jednostek miar opartych o system metryczny. Przedrostki zostały wdrożone w ramach układu SI, choć okazjonalnie stosuje się je także do jednostek spoza tego systemu (np. mililitr czy milisekunda kątowa).
    1. Sekwencja sąsiadujących bitów w szeregowym strumieniu danych (modemy, komunikacja satelitarna lub dane z głowicy dysku twardego), która jest najmniejszą jednostką informacji. Takie bajty mogą zawierać bity startu, bity stopu, bity parzystości, składając się z 7 do 12 bitów, wśród których zawarty jest pojedynczy 7-bitowy kod ASCII.
    2. Typ danych w określonych językach programowania. Język C oraz C++ definiują bajt jako „adresowalna jednostka danych, na tyle duża, by można było do niej przypisać każdy znak z zestawu znaków środowiska wykonawczego” (paragraf 3.6 standardu C). Typ danych char języka C musi zawierać co najmniej 8 bitów (paragraf 5.2.4.2.1), stąd bajtem może być jedna z 256 różnych wartości (bez względu na to, czy dana to signed char czy unsigned char). Różne implementacje języka C i C++ definiują bajt jako daną 8-, 9-, 16-, 32- lub 36-bitową. Właściwa liczba bitów w poszczególnych implementacjach jest podana jako wartość CHAR_BIT w pliku nagłówkowym limits.h. W Javie bajt jest zawsze zdefiniowany jako 8-bitowy, będący typem danych ze znakiem (ang. signed data type), stąd obejmuje wartości od -128 do 127.

    Wczesne mikroprocesory, takie jak Intel 8008 (poprzednik 8080 i 8086), mogły wykonywać niektóre operacje na 4 bitach, takie jak np. DAA (ang. Decimal Adjust after Addition) oraz ustawianie flagi half carry (połowicznego przeniesienia), które służyły do implementacji arytmetyki dziesiętnej. Te 4-bitowe typy danych nosiły nazwę nibble (kęsek).

    RFC (ang. Request for Comments – dosłownie: prośba o komentarze) – zbiór technicznych oraz organizacyjnych dokumentów mających formę memorandum związanych z Internetem oraz sieciami komputerowymi. Każdy z nich ma przypisany unikatowy numer identyfikacyjny, zwykle używany przy wszelkich odniesieniach. Publikacją RFC zajmuje się Internet Engineering Task Force.Asembler (z ang. assembler) – termin informatyczny związany z programowaniem i tworzeniem kodu maszynowego dla procesorów. W języku polskim oznacza on program tworzący kod maszynowy na podstawie kodu źródłowego (tzw. asemblacja) wykonanego w niskopoziomowym języku programowania bazującym na podstawowych operacjach procesora zwanym językiem asemblera, popularnie nazywanym również asemblerem. W tym artykule język programowania nazywany będzie językiem asemblera, a program tłumaczący – asemblerem.

    Historyczne dokumenty IETF opisują różne przykłady bajtów. RFC 608 podaje rozmiar bajta dla hostów FTP (atrybut FTP-BYTE-SIZE w tablicy hostów ARPANET) jako 36 bitów dla komputerów PDP-10 i 32 bity dla IBM 360.

    Podstrony: 1 [2] [3]




    Warto wiedzieć że... beta

    Intel 8080 jest jednym z pierwszych mikroprocesorów, wyprodukowany przez Intela w kwietniu 1974. Jest 8-bitowym mikroprocesorem wykonanym w technologii n-MOS, pracującym z częstotliwością taktowania 2 MHz. Jest on uniwersalną jednostką centralną złożoną z jednostki arytmetyczno-logicznej, rejestrów roboczych i układu sterowania. Dane i instrukcje są przesyłane do i z pamięci za pośrednictwem 8-bitowej szyny danych, pamięć jest adresowana 16-bitową szyną adresową.
    Honeywell - amerykański koncern przemysłowy związany z automatyką o długoletniej tradycji, założony w roku 1906 z siedzibą główną w Morristown w stanie New Jersey.
    FTP, protokół transferu plików (ang. File Transfer Protocol) – protokół komunikacyjny typu klient-serwer wykorzystujący protokół TCP według modelu TCP/IP (krótko: połączenie TCP), umożliwiający dwukierunkowy transfer plików w układzie serwer FTP–klient FTP.
    8086 – 16-bitowy mikroprocesor wprowadzony na rynek 8 czerwca 1978 roku. Posiadał także oznaczenia: 8086-1, 8086-2, 8086-4, iAPX 86/10, a dla wykonywanych w technologii CMOS: 80C86, 80C86-2, 80C86A.
    Pamięć komputerowa to różnego rodzaju urządzenia i bloki funkcjonalne komputera, służące do przechowywania danych i programów (systemu operacyjnego oraz aplikacji). Potocznie przez "pamięć komputerową" rozumie się samą pamięć operacyjną.
    Znakowy typ danych (ang.) character data type – typ danych stosowany w wielu językach programowania, reprezentujący jeden znak tekstu.
    Przedrostki dwójkowe – stosowane w informatyce przedrostki jednostek miary o identycznych nazwach i oznaczeniach jak przedrostki SI, ale o mnożniku 10 zastąpionym przez 2 (10 = 1000 ≈ 1024 = 2). Dodatkowo przedrostek kilo jest często oznaczany literą K, a nie k jak w układzie SI. Zastosowanie przedrostków dwójkowych jest bardzo praktyczne, jeśli operujemy wielkościami dla których naturalnym jest dwójkowy system liczbowy, np. rozmiarami pamięci komputerowej.

    Reklama

    Czas generowania strony: 0.036 sek.