• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Informacja



    Podstrony: [1] [2] [3] 4
    Przeczytaj także...
    Przekaz medialny – tworzenie i transmisja treści za pośrednictwem mass mediów. Najczęściej przekaz medialny analizowany jest w aspekcie treści przekazu (np. jawna, niejawna), formy przekazu (np. druk, film, prezentacja), celu i funkcji przekazu (np. informacyjne, polityczne), charakterystyki nadawcy (np. instytucja rządowa, osoba prywatna) , aksjologicznych aspektów przekazu (np. wartości tradycyjne, misja), kontekstu edukacyjnego (np. walory poznawcze, aspekty wychowawcze), personalizacji odbiorcy (np. grupy wiekowe, zawodowe) i niejawnej treści przekazu (manipulacji).W najbardziej popularnym i inżynieryjnym sensie, funkcja jest to własność obiektu, urządzenia lub osoby związana z jego zastosowaniem, przeznaczeniem lub zadaniem. Równocześnie, w inżynierii, termin funkcja jest też czasami mylnie używany do nazwania procesu, zadania czy celu.
    Przypisy
    1. Klemens Szaniawski hasło Informacja w: Filozofia a nauka, 1987, s. 244.
    2. Grzegorz Lissowski, hasło Informacja, w: Wielka Encyklopedia Powszechna, 2002, s. 126.
    3. Paweł Przybyłowicz Wstęp do teorii informacji i kodowania.
    4. Edward Kowalczyk, O istocie informacji, 1981, s. 18.
    5. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 141.
    6. Krzysztof Boruń, hasło Informacja, w: Mały słownik cybernetyczny, pod red. M. Kempisty, 1973, s. 155.
    7. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 35.
    8. Wiktor Głuszkow, Wstęp do cybernetyki, 1967, za: J. L. Kulikowski, Informacja i świat w którym żyjemy, 1978, s. 43.
    9. Léon Brillouin, Nauka a teoria informacji, 1969, s. 202-203.
    10. R. Bujakiewicz-Korońska, O przemianach energii i informacji w strukturach dyssypatywnych, 2000, s. 77.
    11. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 177.
    12. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 178.
    13. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 247.
    14. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 181.
    15. A. D. Ursuł Informacija, 1971 za: J. L. Kulikowski, Informacja i świat w którym żyjemy, 1978, s. 44.
    16. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 35-37.
    17. Marian Mazur, Jakościowa teoria informacji, 1970, s. 70-71.
    18. Marian Mazur, Cybernetyka i charakter, 1976, s. 120-121.
    19. A. M. Jagłom, I. M. Jagłom, Prawdopodobieństwo i informacja, 1963, s. 91.
    20. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 48-49.
    21. R. Bujakiewicz-Korońska, O przemianach energii i informacji w strukturach dyssypatywnych, 2000, s. 79.
    22. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 49.
    23. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 140.
    24. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 155.
    25. szanon – Encyklopedia PWN.
    26. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 156.
    27. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 159.
    28. Warto zobaczyć: Meta-teoria TOGA (Top-down Object-based Goal-oriented Approach), Adam Maria Gadomski, 1993, TOGA Meta-Theory – Real-World Computational Philosophy & Goal-oriented Reasoning Framework and computational unified problem-solving methodology, Information Preferences Knowledge Paradigm: Meta-Ontology for Knowledge Engineering & Management, TOGA standards i HID – ENEA: Grupa Badan Kognitywistycznych Wysokiej Intelligencji i processow Decyzyjnych.
    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.Léon Nicolas Brillouin (ur. 7 sierpnia 1889 w Sèvres - zm. 4 października 1969 w Nowym Jorku) – francuski fizyk. Profesor m.in. Sorbony i Uniwersytetu Harwarda. Autor prac dotyczących mechaniki kwantowej i teorii ciała stałego. Współtwórca pasmowej teorii ciała stałego. Zajmował się także cybernetyką, teorią informacji i filozoficznymi problemami nauki.


    Podstrony: [1] [2] [3] 4



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Entropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej Y, jeśli wcześniej znamy wartość innej zmiennej losowej X. Zapisuje się ją jako H ( Y | X ) {displaystyle H(Y|X),} i tak jak inne entropie mierzy w bitach.
    Definicja (z łac. definitio; od czas. definire: de + finire, "do końca, granicy"; od finis: granica, koniec) – wypowiedź o określonej budowie, w której informuje się o znaczeniu pewnego wyrażenia przez wskazanie innego wyrażenia należącego do danego języka i posiadającego to samo znaczenie.
    Semiotyka (rzadziej używa się terminów "semiotyka logiczna", "semiologia" i "semantyka", z których dwa ostatnie mają też inne znaczenia) - jeden z trzech głównych (obok logiki formalnej i metodologii nauk) działów logiki, sam dzielący się na semantykę, pragmatykę i syntaktykę. Podział semiotyki na trzy główne działy pochodzi od Charlesa W. Morrisa. Semiotyka logiczna stanowi ogólną teorię znaków, zwłaszcza znaków językowych - wyrażeń. Zbliżony charakter ma semiotyka językoznawcza, która nie bada języków sformalizowanych, a jedynie języki naturalne (sama semiotyka logiczna, poza językami sformalizowanymi, bada także język naturalny). Zbliżony do syntaktyki logicznej charakter ma syntaktyka językoznawcza, semantyka logiczna ma swój odpowiednik w postaci semantyki językoznawczej.
    Claude Elwood Shannon (urodzony 30 kwietnia 1916 - zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera) - amerykański matematyk i inżynier, profesor MIT. Jeden z twórców teorii informacji. Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.
    Nauka – autonomiczna część kultury służąca wyjaśnieniu funkcjonowania świata, w którym żyje człowiek. Nauka jest budowana i rozwijana wyłącznie za pomocą tzw. metody naukowej lub metod naukowych nazywanych też paradygmatami nauki poprzez działalność badawczą prowadzącą do publikowania wyników naukowych dociekań. Proces publikowania i wielokrotne powtarzanie badań w celu weryfikacji ich wyników prowadzi do powstania wiedzy naukowej. Zarówno ta wiedza jak i sposoby jej gromadzenia określane są razem jako nauka.
    Czas – skalarna (w klasycznym ujęciu) wielkość fizyczna określająca kolejność zdarzeń oraz odstępy między zdarzeniami zachodzącymi w tym samym miejscu. Pojęcie to było również przedmiotem rozważań filozoficznych.
    Cybernetyka (gr. kybernetes "sternik; zarządca" od kybernán "sterować; kontrolować") – nauka o systemach sterowania oraz związanym z tym przetwarzaniu i przekazywaniu informacji (komunikacja).

    Reklama

    Czas generowania strony: 0.026 sek.