• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Informacja



    Podstrony: 1 [2] [3] [4]
    Przeczytaj także...
    Przekaz medialny – tworzenie i transmisja treści za pośrednictwem mass mediów. Najczęściej przekaz medialny analizowany jest w aspekcie treści przekazu (np. jawna, niejawna), formy przekazu (np. druk, film, prezentacja), celu i funkcji przekazu (np. informacyjne, polityczne), charakterystyki nadawcy (np. instytucja rządowa, osoba prywatna) , aksjologicznych aspektów przekazu (np. wartości tradycyjne, misja), kontekstu edukacyjnego (np. walory poznawcze, aspekty wychowawcze), personalizacji odbiorcy (np. grupy wiekowe, zawodowe) i niejawnej treści przekazu (manipulacji).W najbardziej popularnym i inżynieryjnym sensie, funkcja jest to własność obiektu, urządzenia lub osoby związana z jego zastosowaniem, przeznaczeniem lub zadaniem. Równocześnie, w inżynierii, termin funkcja jest też czasami mylnie używany do nazwania procesu, zadania czy celu.

    Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności).

    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.Léon Nicolas Brillouin (ur. 7 sierpnia 1889 w Sèvres - zm. 4 października 1969 w Nowym Jorku) – francuski fizyk. Profesor m.in. Sorbony i Uniwersytetu Harwarda. Autor prac dotyczących mechaniki kwantowej i teorii ciała stałego. Współtwórca pasmowej teorii ciała stałego. Zajmował się także cybernetyką, teorią informacji i filozoficznymi problemami nauki.

    Można wyróżnić dwa podstawowe punkty widzenia informacji: 1. obiektywny – informacja oznacza pewną właściwość fizyczną lub strukturalną obiektów (układów, systemów), przy czym jest kwestią dyskusyjną, czy wszelkich obiektów, czy jedynie systemów samoregulujących się (w tym organizmów żywych); 2. subiektywny – informacja istnieje jedynie względem pewnego podmiotu, najczęściej rozumianego jako umysł, gdyż jedynie umysł jest w stanie nadać elementom rzeczywistości znaczenie (sens) i wykorzystać je do własnych celów.

    Wyróżnia się trzy, powiązane ze sobą, koncepcje (teorie) informacji, związane z jej aspektami semiotycznymi:

    Entropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej Y, jeśli wcześniej znamy wartość innej zmiennej losowej X. Zapisuje się ją jako H ( Y | X ) {displaystyle H(Y|X),} i tak jak inne entropie mierzy w bitach.Definicja (z łac. definitio; od czas. definire: de + finire, "do końca, granicy"; od finis: granica, koniec) – wypowiedź o określonej budowie, w której informuje się o znaczeniu pewnego wyrażenia przez wskazanie innego wyrażenia należącego do danego języka i posiadającego to samo znaczenie.
    1. statystyczno-syntaktyczną z probabilistycznym i składniowym; 2. semantyczną ze znaczeniowym; 3. pragmatyczną z wartościowym (cennościowym) – w odniesieniu do problemu podejmowania przez jej odbiorcę decyzji związanych z jego celem.

    Spis treści

  • 1 Informacja obiektywna
  • 1.1 Informacja w odniesieniu do procesu komunikowania się
  • 1.2 Informacja w odniesieniu do budowy układu
  • 1.3 Miary ilości informacji
  • 1.4 Przenoszenie i przetwarzanie informacji
  • 2 Informacja subiektywna
  • 2.1 Znaczenie informacji – koncepcja semantyczna
  • 2.2 Wartość informacji – koncepcja pragmatyczna
  • 2.3 Kognitywistyka
  • 3 Inne interpretacje
  • 4 Zobacz też
  • 5 Przypisy
  • Semiotyka (rzadziej używa się terminów "semiotyka logiczna", "semiologia" i "semantyka", z których dwa ostatnie mają też inne znaczenia) - jeden z trzech głównych (obok logiki formalnej i metodologii nauk) działów logiki, sam dzielący się na semantykę, pragmatykę i syntaktykę. Podział semiotyki na trzy główne działy pochodzi od Charlesa W. Morrisa. Semiotyka logiczna stanowi ogólną teorię znaków, zwłaszcza znaków językowych - wyrażeń. Zbliżony charakter ma semiotyka językoznawcza, która nie bada języków sformalizowanych, a jedynie języki naturalne (sama semiotyka logiczna, poza językami sformalizowanymi, bada także język naturalny). Zbliżony do syntaktyki logicznej charakter ma syntaktyka językoznawcza, semantyka logiczna ma swój odpowiednik w postaci semantyki językoznawczej.Claude Elwood Shannon (urodzony 30 kwietnia 1916 - zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera) - amerykański matematyk i inżynier, profesor MIT. Jeden z twórców teorii informacji. Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.


    Podstrony: 1 [2] [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Nauka – autonomiczna część kultury służąca wyjaśnieniu funkcjonowania świata, w którym żyje człowiek. Nauka jest budowana i rozwijana wyłącznie za pomocą tzw. metody naukowej lub metod naukowych nazywanych też paradygmatami nauki poprzez działalność badawczą prowadzącą do publikowania wyników naukowych dociekań. Proces publikowania i wielokrotne powtarzanie badań w celu weryfikacji ich wyników prowadzi do powstania wiedzy naukowej. Zarówno ta wiedza jak i sposoby jej gromadzenia określane są razem jako nauka.
    Czas – skalarna (w klasycznym ujęciu) wielkość fizyczna określająca kolejność zdarzeń oraz odstępy między zdarzeniami zachodzącymi w tym samym miejscu. Pojęcie to było również przedmiotem rozważań filozoficznych.
    Cybernetyka (gr. kybernetes "sternik; zarządca" od kybernán "sterować; kontrolować") – nauka o systemach sterowania oraz związanym z tym przetwarzaniu i przekazywaniu informacji (komunikacja).
    Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.
    Kontrwywiad – działalność mająca na celu neutralizowanie działalności obcych służb wywiadowczych, jak też przeciwdziałanie szpiegostwu w ogólności. Często ujmuje się tu również działania mające na celu ochronę i obronę przed dywersją i sabotażem. Kontrwywiadem przeważnie zajmują się służby cywilne, policyjne i wojskowe, potocznie określane również mianem kontrwywiad. W Polsce kontrwywiadem cywilnym zajmuje się Agencja Bezpieczeństwa Wewnętrznego, a wojskowym Służba Kontrwywiadu Wojskowego.
    Krzysztof Boruń (ur. 29 listopada 1923 r. w Częstochowie, zm. 22 maja 2000 r. w Warszawie) – polski pisarz science-fiction, popularyzator nauki. Był dziennikarzem, autorem wielu esejów, felietonów, artykułów i książek.
    Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.

    Reklama