• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Komunikat

    Przeczytaj także...
    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.Entropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej Y, jeśli wcześniej znamy wartość innej zmiennej losowej X. Zapisuje się ją jako H ( Y | X ) {displaystyle H(Y|X),} i tak jak inne entropie mierzy w bitach.
    Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.

    Komunikat, przekaz informacyjny - tekst (system złożony z wyrażeń danego języka o strukturze zgodnej z regułami syntaktyki (gramatyki) tego języka, skończony zbiór zdań danego języka) z przyporządkowaną mu materialną realizacją w postaci procesu fizycznego (sygnału) w medium transmisyjnym (komunikat czynny) lub stanu układu fizycznego (zapisu) na nośniku danych (komunikat bierny), przekazany przez nadawcę (nadajnik) komunikatu odbiorcy (odbiornikowi) komunikatu, lub odebrany przez odbiorcę (odbiornik), w jednym akcie komunikacji (procesie komunikacyjnym).

    Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.Nadawca (źródło, ang. sender, source) jest to określenie używane w telekomunikacji do zidentyfikowania podmiotu będącego źródłem transmisji lub komunikatu. Nadawca wysyła informację używając kodu przy pomocy fizycznego medium transmisji. Nadawcą może być np. urządzenie, aplikacja lub użytkownik.

    W sensie najogólniejszym, komunikatem jest każdy stan fizyczny wyróżniony (odróżnialny) tj. różniący się w określony sposób od innego stanu fizycznego wyróżnionego (odróżnialnego) w torze sterowniczym (układzie przekazywania informacji). Zbiór możliwych stanów wyróżnionych (komunikatów) to repertuar (nadawcy, kanału komunikacyjnego lub odbiorcy), o określonej różnorodności, której miarą jest entropia informacyjna. Odebranie komunikatu przez odbiorcę (wyróżnienie z repertuaru określonego stanu lub zbioru stanów) skutkuje ograniczeniem różnorodności i utworzeniem relacji między zbiorem - repertuarem a zbiorem stanów wyróżnionych przez komunikat - informacji (w sensie statystyczno - syntaktycznym). Informacja nie jest więc wewnętrzną właściwością określonego komunikatu, lecz zależy od dostępnego repertuaru stanów (komunikatów). Miarą przekazanej przez komunikat informacji (statystyczno - syntaktycznej) jest różnica między entropią repertuaru a entropią warunkową pod warunkiem otrzymania komunikatu (informacja wzajemna).

    Medium transmisyjne – nośnik używany do transmisji sygnałów w telekomunikacji. Jest podstawowym elementem systemów telekomunikacyjnych. Możliwości transmisji zależą od parametrów użytego medium. Wyróżnia się media przewodowe i bezprzewodowe.Tekst - każdy wytwór kultury (tekst kultury) stanowiący całość uporządkowaną według określonych reguł, np. dzieło sztuki, ubiór, zachowanie realizujące jakiś utrwalony wzorzec kulturowy.

    Jeśli komunikat jest tekstem języka z semantyką (wyrażeniom języka przyporządkowane są znaczenia), to jego odebranie skutkuje pojawieniem się informacji również w sensie semantycznym.

    Przypisy

    1. Słownik encyklopedyczny informacji, języka i systemów informacyjno-wyszukiwawczych, oprac. Bożena Bagor, Wyd. SPB, 2002, s. 271.
    2. Słownik terminologiczny informacji naukowej, Wyd. Z. N. im. Ossolińskich, 1979, s. 67.
    3. Marian Mazur Jakościowa teoria informacji, WNT, 1970, s. 38.
    4. Słownik encyklopedyczny informacji, języka i systemów informacyjno-wyszukiwawczych, oprac. Bożena Bagor, Wyd. SPB, 2002, s. 142.
    5. Marian Mazur Jakościowa teoria informacji, WNT, 1970, s. 34.
    6. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 178.
    7. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 247.
    8. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 181.
    9. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 177.
    10. A. M. Jagłom, I. M. Jagłom Prawdopodobieństwo i informacja 1963 s. 91
    Semantyka (semantyka logiczna) – obok syntaktyki i pragmatyki jeden z trzech działów semiotyki logicznej (taki podział semiotyki wprowadził Charles W. Morris), zajmujący się funkcjami semantycznymi, tj. relacjami między znakami (w tym zwłaszcza wyrażeniami) a rzeczywistością, do której znaki te się odnoszą. Tak rozumianą semantykę należy odróżnić od semantyki językoznawczej jako nauki o znaczeniu wyrazów (sam termin "semantyka" upowszechnił zresztą językoznawca, Michel Bréal) i semantyki ogólnej, nurtu filozofii języka; terminem "semantyka" określa się też niekiedy semiotykę logiczną jako całość.Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarą zależności pomiędzy dwiema zmiennymi losowymi. Zwykle podaje się ją w bitach, co oznacza, że wylicza się ją przy użyciu logarytmów o podstawie 2.



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Kanał komunikacyjny – połączenie pozwalające na komunikację pomiędzy dwoma uczestnikami wymieniającymi się informacjami. Każdy przekaz jest wysyłany przez nadawcę oraz odbierany przez adresata wiadomości.
    Syntaktyka – jeden z trzech głównych działów semiotyki, obok semantyki i pragmatyki. Syntaktyka bada funkcje syntaktyczne – relacje, które zachodzą między wyrażeniami (znakami językowymi) wewnątrz języka i które mają charakter formalny. Podstawowe relacje syntaktyczne to np. implikacja (wynikanie) czy reprezentowanie stałych przez zmienne.
    Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności).
    Materia – w potocznym znaczeniu: ogół obiektywnie istniejących przedmiotów fizycznych, poznawalnych zmysłami. W fizyce termin "materia" ma kilka znaczeń.
    Przemiana fizyczna (proces fizyczny) – proces, w którym można wyróżnić co najmniej dwa istotnie różniące się stany materii, tzw. początkowy i końcowy. Przemiana fizyczna zmienia właściwości fizyczne obiektu (ciała, substancji lub systemu fizycznego) lub jego stan, np. położenie, prędkość.
    Odbiorca – w językoznawstwie to zamierzony bezpośredni adresat (lub adresaci) wypowiedzi nadawcy. Do odbiorcy odnoszą się morfemy drugiej osoby gramatycznej. W procesie komunikacji odbiorca pełni rolę uczestnika.
    Gramatyka (z greki [τέχνη] γραμματική) – dział językoznawstwa zajmujący się badaniem reguł, które rządzą generowaniem wyrazów i zdań języka. W zakres gramatyki wchodzą: fonologia, morfologia oraz składnia. Terminem tym określa się także sam zbiór reguł określających zasady tworzenia poprawnych wypowiedzi, zatem można powiedzieć, że każdy język ma własną gramatykę.

    Reklama