• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Informacja



    Podstrony: [1] 2 [3] [4]
    Przeczytaj także...
    Przekaz medialny – tworzenie i transmisja treści za pośrednictwem mass mediów. Najczęściej przekaz medialny analizowany jest w aspekcie treści przekazu (np. jawna, niejawna), formy przekazu (np. druk, film, prezentacja), celu i funkcji przekazu (np. informacyjne, polityczne), charakterystyki nadawcy (np. instytucja rządowa, osoba prywatna) , aksjologicznych aspektów przekazu (np. wartości tradycyjne, misja), kontekstu edukacyjnego (np. walory poznawcze, aspekty wychowawcze), personalizacji odbiorcy (np. grupy wiekowe, zawodowe) i niejawnej treści przekazu (manipulacji).W najbardziej popularnym i inżynieryjnym sensie, funkcja jest to własność obiektu, urządzenia lub osoby związana z jego zastosowaniem, przeznaczeniem lub zadaniem. Równocześnie, w inżynierii, termin funkcja jest też czasami mylnie używany do nazwania procesu, zadania czy celu.
    Informacja obiektywna[]

    W cybernetyce i teorii informacji najbardziej ogólnie: każde rozpoznanie stanu układu, odróżnialnego od innego stanu tego układu (stanu wyróżnionego); wyróżnienie pewnego stanu wyróżnionego (odróżnialnego) z repertuaru (zbioru stanów wyróżnionych). „...w pojęciu informacji istotne jest nie samo zaistniałe zjawisko, lecz jego stosunek do zbioru zdarzeń, które mogły były zaistnieć”.

    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.Léon Nicolas Brillouin (ur. 7 sierpnia 1889 w Sèvres - zm. 4 października 1969 w Nowym Jorku) – francuski fizyk. Profesor m.in. Sorbony i Uniwersytetu Harwarda. Autor prac dotyczących mechaniki kwantowej i teorii ciała stałego. Współtwórca pasmowej teorii ciała stałego. Zajmował się także cybernetyką, teorią informacji i filozoficznymi problemami nauki.

    Można odróżnić: 1. informację swobodną, kiedy możliwości (stany, zdarzenia) uważamy za abstrakcyjne i nie przypisujemy im żadnego znaczenia fizycznego, 2. informację związaną, kiedy możliwości (stany, zdarzenia) mogą być interpretowane jako mikrostany (lub zbiory mikrostanów) pewnego układu fizycznego.

    Informacja zawarta w stanach układu kwantowego to informacja kwantowa.

    Entropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej Y, jeśli wcześniej znamy wartość innej zmiennej losowej X. Zapisuje się ją jako H ( Y | X ) {displaystyle H(Y|X),} i tak jak inne entropie mierzy w bitach.Definicja (z łac. definitio; od czas. definire: de + finire, "do końca, granicy"; od finis: granica, koniec) – wypowiedź o określonej budowie, w której informuje się o znaczeniu pewnego wyrażenia przez wskazanie innego wyrażenia należącego do danego języka i posiadającego to samo znaczenie.

    Bardziej szczegółowo można rozpatrywać informację: 1. w odniesieniu do procesu komunikowania się (systemu przekazywania informacji, toru sterowniczego), 2. w odniesieniu do budowy układu.

    Informacja w odniesieniu do procesu komunikowania się[]

    Informacja jest to wyróżnienie przez pewien układ informacyjny (odbiorcę), ze swojego repertuaru, pewnego stanu wyróżnionego (przez odróżnienie go od innego stanu wyróżnionego), odbijające wyróżnienie stanu wyróżnionego układu informacyjnego będącego nadawcą (Definicja 1).

    Semiotyka (rzadziej używa się terminów "semiotyka logiczna", "semiologia" i "semantyka", z których dwa ostatnie mają też inne znaczenia) - jeden z trzech głównych (obok logiki formalnej i metodologii nauk) działów logiki, sam dzielący się na semantykę, pragmatykę i syntaktykę. Podział semiotyki na trzy główne działy pochodzi od Charlesa W. Morrisa. Semiotyka logiczna stanowi ogólną teorię znaków, zwłaszcza znaków językowych - wyrażeń. Zbliżony charakter ma semiotyka językoznawcza, która nie bada języków sformalizowanych, a jedynie języki naturalne (sama semiotyka logiczna, poza językami sformalizowanymi, bada także język naturalny). Zbliżony do syntaktyki logicznej charakter ma syntaktyka językoznawcza, semantyka logiczna ma swój odpowiednik w postaci semantyki językoznawczej.Claude Elwood Shannon (urodzony 30 kwietnia 1916 - zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera) - amerykański matematyk i inżynier, profesor MIT. Jeden z twórców teorii informacji. Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.

    O informacji można tu mówić jedynie w odniesieniu do układu, który jest zdolny ją odebrać (odbić wyróżnienie stanu wyróżnionego nadawcy), i tylko w takim zakresie, w jakim jest zdolny. Różne układy informacyjne mogą odbijać (rozpoznawać) różne stany wyróżnione z różnych repertuarów.

    W tym znaczeniu informacja ma charakter relatywny i jest nazywana informacją względną.

    Nauka – autonomiczna część kultury służąca wyjaśnieniu funkcjonowania świata, w którym żyje człowiek. Nauka jest budowana i rozwijana wyłącznie za pomocą tzw. metody naukowej lub metod naukowych nazywanych też paradygmatami nauki poprzez działalność badawczą prowadzącą do publikowania wyników naukowych dociekań. Proces publikowania i wielokrotne powtarzanie badań w celu weryfikacji ich wyników prowadzi do powstania wiedzy naukowej. Zarówno ta wiedza jak i sposoby jej gromadzenia określane są razem jako nauka.Czas – skalarna (w klasycznym ujęciu) wielkość fizyczna określająca kolejność zdarzeń oraz odstępy między zdarzeniami zachodzącymi w tym samym miejscu. Pojęcie to było również przedmiotem rozważań filozoficznych.

    Informacja przekazywana w postaci komunikatu nie jest wewnętrzną własnością tego komunikatu, lecz zależy od zbioru (repertuaru), z którego ten komunikat pochodzi. Można mówić o różnorodności takiego zbioru, której miarą jest entropia informacyjna. Przekazanie komunikatu, czyli wyróżnienie z repertuaru pewnego stanu wyróżnionego lub zbioru stanów wyróżnionych stanowi ograniczenie różnorodności – relację między zbiorem-repertuarem a zbiorem stanów wyróżnionych przez komunikat (informację).

    Cybernetyka (gr. kybernetes "sternik; zarządca" od kybernán "sterować; kontrolować") – nauka o systemach sterowania oraz związanym z tym przetwarzaniu i przekazywaniu informacji (komunikacja).Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.

    „...informacja (...) jest różnorodnością, jaką jeden obiekt zawiera o innym obiekcie, jest wzajemną i względną różnorodnością. (...) informację można określić jako odbitą różnorodność, jako różnorodność, którą obiekt odbijający zawiera o obiekcie odbijanym...”.

    Według Mariana Mazura:

    Kontrwywiad – działalność mająca na celu neutralizowanie działalności obcych służb wywiadowczych, jak też przeciwdziałanie szpiegostwu w ogólności. Często ujmuje się tu również działania mające na celu ochronę i obronę przed dywersją i sabotażem. Kontrwywiadem przeważnie zajmują się służby cywilne, policyjne i wojskowe, potocznie określane również mianem kontrwywiad. W Polsce kontrwywiadem cywilnym zajmuje się Agencja Bezpieczeństwa Wewnętrznego, a wojskowym Służba Kontrwywiadu Wojskowego.Krzysztof Boruń (ur. 29 listopada 1923 r. w Częstochowie, zm. 22 maja 2000 r. w Warszawie) – polski pisarz science-fiction, popularyzator nauki. Był dziennikarzem, autorem wielu esejów, felietonów, artykułów i książek.

    Informacja jest to transformacja poprzeczna komunikatów w torze sterowniczym, tj. zmiana pewnego stanu wyróżnionego w pewnym punkcie toru sterowniczego (systemu przekazywania informacji) na inny stan wyróżniony w tym samym punkcie; przyporządkowanie sobie tych stanów (relacja między nimi) (Definicja 2).

    Przykład 1.: Na początku toru sterowniczego mogą zachodzić stany wyłącznika: wyłączony, włączony; w miejscu pośrednim toru stany napięcia: zerowe, niezerowe; na końcu toru stany żarówki: nieświecąca, świecąca. Informacjami są transformacje: wyłącznik wyłączony – wyłącznik włączony, napięcie zerowe – napięcie niezerowe, żarówka nieświecąca – żarówka świecąca. Natomiast transformacje: wyłącznik wyłączony – napięcie zerowe – żarówka nieświecąca i wyłącznik włączony – napięcie niezerowe – żarówka świecąca są transformacjami wzdłużnymi komunikatów w torze sterowniczym, tj. zmianami stanów wyróżnionych w pewnym punkcie toru (systemu przekazywania informacji) na stany wyróżnione w innym punkcie toru (przyporządkowaniami sobie tych stanów, relacjami między nimi) i nazywane są kodami.

    Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.Zarządzanie wiedzą (ang. Knowledge Management, KM) - to zespół sformalizowanych sposobów gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy cichej uczestników organizacji (np. pracowników firmy). Zarządzanie wiedzą, to próba jak najlepszego wykorzystania wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie jej zrozumienia.

    Przykład 2.: Informacja o odległości „w terenie” to relacja między długością danego odcinka a długością odcinka wzorcowego (jednostki miary) np. 3 km : 1 km = 3. Informacja ta może być zakodowana na mapie, jako relacja między długością odcinka na mapie a długością odcinka wzorcowego mapy np. 3 cm : 1 cm = 3. Kodem jest tu relacja między długością odcinka wzorcowego mapy a długością odcinka wzorcowego „w terenie” – skala (podziałka) mapy np. 1 cm : 1 km = 1:100 000.

    Termin można zdefiniować jako nazwę, o umownie ustalonym znaczeniu, przyporządkowaną do pojęcia wchodzącego w zakres zainteresowań określonej dziedziny: nauki, techniki, gospodarki, działalności zawodowej, działalności wychowawczej, sportu itp.Semantyka (semantyka logiczna) – obok syntaktyki i pragmatyki jeden z trzech działów semiotyki logicznej (taki podział semiotyki wprowadził Charles W. Morris), zajmujący się funkcjami semantycznymi, tj. relacjami między znakami (w tym zwłaszcza wyrażeniami) a rzeczywistością, do której znaki te się odnoszą. Tak rozumianą semantykę należy odróżnić od semantyki językoznawczej jako nauki o znaczeniu wyrazów (sam termin "semantyka" upowszechnił zresztą językoznawca, Michel Bréal) i semantyki ogólnej, nurtu filozofii języka; terminem "semantyka" określa się też niekiedy semiotykę logiczną jako całość.

    Wyróżnienie przez układ (nadawcę lub odbiorcę) pewnego swojego stanu wyróżnionego (odróżnienie go od innego stanu wyróżnionego), o którym mowa w definicji pierwszej, skutkuje właśnie ustanowieniem relacji między tymi stanami, o której mowa w definicji drugiej.

    Ujmowana ilościowo informacja (ilość informacji) o stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, przewidywanych wynikach doświadczenia, strukturze układu modelowanego, treści komunikatu nadanego) β zawarta w stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, otrzymanych wynikach doświadczenia, strukturze modelu, treści komunikatu odebranego) α, to usunięta przez α część nieokreśloności (entropii informacyjnej) β.

    Rzeczywistość w znaczeniu potocznym to "wszystko co istnieje". Termin rzeczywistość w najszerszym znaczeniu zawiera wszystkie byty, zarówno obserwowalne jak i pojęciowe, wprowadzone przez naukę czy filozofię.Energia gr. ενεργεια (energeia) – skalarna wielkość fizyczna charakteryzująca stan układu fizycznego (materii) jako jego zdolność do wykonania pracy.

    To, ile informacji zawierają komunikaty, zależy od stanu niewiedzy odbiorcy, co do nadawcy. Im większą zmianę w nieokreśloności (niewiedzy) odbiorcy, co do nadawcy, wywołuje komunikat odebrany, tym dostarcza (zawiera) więcej informacji.

    Informacja w odniesieniu do budowy układu[]

    Informacja jest to stopień uporządkowania (lub zorganizowania) układu (Definicja 3).

    W tym znaczeniu informacja dotyczy struktury układu i jest nazywana informacją strukturalną.

    Teoria prawdopodobieństwa (także rachunek prawdopodobieństwa lub probabilistyka) – dział matematyki zajmujący się zdarzeniami losowymi. Rachunek prawdopodobieństwa zajmuje się badaniem abstrakcyjnych pojęć matematycznych stworzonych do opisu zjawisk, które nie są deterministyczne: zmiennych losowych w przypadku pojedynczych zdarzeń oraz procesów stochastycznych w przypadku zdarzeń powtarzających się (w czasie). Jako matematyczny fundament statystyki, teoria prawdopodobieństwa odgrywa istotną rolę w sytuacjach, w których konieczna jest analiza dużych zbiorów danych. Jednym z największych osiągnięć fizyki dwudziestego wieku było odkrycie probabilistycznej natury zjawisk fizycznych w skali mikroskopijnej, co zaowocowało powstaniem mechaniki kwantowej.Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarą zależności pomiędzy dwiema zmiennymi losowymi. Zwykle podaje się ją w bitach, co oznacza, że wylicza się ją przy użyciu logarytmów o podstawie 2.

    Według Mariana Mazura:

    Informacja to struktura (układ relacji wiążących elementy układu) (Definicja 4).

    Ujmowana ilościowo taka informacja to różnica między entropią (odpowiednio termodynamiczną lub strukturalną) układu maksymalną a entropią (odpowiednio termodynamiczną lub strukturalną) układu daną, czyli negentropia (termodynamiczna lub strukturalna) układu.

    Informację strukturalną (strukturę) niekiedy uważa się za jeden z trzech składników każdego układu (czyli pośrednio całej rzeczywistości). Każda rzecz, proces czy zjawisko może być bowiem rozpatrywane w wymiarze materialnym (czyli pewnej liczby cząstek), tzw. „energetycznym” (czyli ruchu fizycznego, którego miarą jest energia) i strukturalnym (informacyjnym).

    Wiedza – termin używany powszechnie, istnieje wiele definicji tego pojęcia. Nowa Encyklopedia Powszechna definiuje wiedzę jako „ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania”.Nat (skr. od ang. natural unit "jednostka naturalna"; czasami także nit lub nepit, skr. od Neper unit "jednostka Nepera") – logarytmiczna jednostka miary ilości informacji. 1 nat jest ilością informacji zawartą w wiadomości o zajściu zdarzenia, którego prawdopodobieństwo równe jest 1/e. Ilość informacji wyraża się w postaci logarytmu naturalnego liczby możliwych wariantów zdarzenia.

    Miary ]

    Ilościowym aspektem informacji zajmuje się statystyczno-syntaktyczna teoria informacji Hartleya i Shannona. Miary ilości informacji są w niej oparte na prawdopodobieństwie zajścia zdarzenia. Jako miarę ilości informacji przyjmuje się wielkość niepewności, która została usunięta w wyniku zajścia zdarzenia (otrzymania komunikatu). Zdarzenia (komunikaty) mniej prawdopodobne dają więcej informacji. To podejście pomija znaczenie (semantykę), jakie niesie komunikat, a skupia się jedynie na jego składni (syntaktyce).

    Towar – produkt pracy ludzkiej, który jest przeznaczony do sprzedaży. Pojęcie to obejmuje dobra konsumpcyjne i produkcyjne oraz usługi.Robot – mechaniczne urządzenie wykonujące automatycznie pewne zadania. Działanie robota może być sterowane przez człowieka, przez wprowadzony wcześniej program, bądź przez zbiór ogólnych reguł, które zostają przełożone na działanie robota przy pomocy technik sztucznej inteligencji. Roboty często zastępują człowieka przy monotonnych, złożonych z powtarzających się kroków czynnościach, które mogą wykonywać znacznie szybciej od ludzi. Domeną ich zastosowań są też te zadania, które są niebezpieczne dla człowieka, na przykład związane z manipulacją szkodliwymi dla zdrowia substancjami lub przebywaniem w nieprzyjaznym środowisku.

    1. Ilość informacji otrzymanej przy zajściu zdarzenia xi (entropia tego zdarzenia, entropia indywidualna) to (Hartley 1928): gdzie: Ii – ilość informacji otrzymanej przy zajściu zdarzenia xi, pi – prawdopodobieństwo zajścia zdarzenia xi, r – podstawa logarytmu.

    W teorii informacji najczęściej stosuje się logarytm o podstawie r = 2, wówczas jednostką informacji jest bit (szanon). Przy r = e jednostką jest nat (nit), natomiast przy r = 10 – dit (hartley).

    Podstawa logarytmu naturalnego, liczba e, liczba Eulera, liczba Nepera – stała matematyczna wykorzystywana w wielu dziedzinach matematyki i fizyki. W przybliżeniu wynosi 2,7182818, oznacza się ją literą e.Syntaktyka – jeden z trzech głównych działów semiotyki, obok semantyki i pragmatyki. Syntaktyka bada funkcje syntaktyczne – relacje, które zachodzą między wyrażeniami (znakami językowymi) wewnątrz języka i które mają charakter formalny. Podstawowe relacje syntaktyczne to np. implikacja (wynikanie) czy reprezentowanie stałych przez zmienne.

    2. Przeciętna ilość informacji przypadająca na zajście zdarzenia z pewnego zbioru n zdarzeń (entropia bezwarunkowa tego zbioru, entropia przeciętna) jest średnią arytmetyczną ważoną ilości informacji otrzymywanej przy zajściu poszczególnych zdarzeń, gdzie wagami są prawdopodobieństwa tych zdarzeń (Shannon 1948):

    Zjawisko fizyczne – przemiana, na skutek której zmieniają się właściwości fizyczne ciała lub obiektu fizycznego.Ban (czasem także hartley – oznaczenie Hart, określany też jako dit od decimal digit ) – logarytmiczna jednostka miary ilości informacji lub entropii. Jeden ban (hartley) to ilość informacji zawarta w wiadomości o zajściu zdarzenia, którego prawdopodobieństwo wynosi 0,1. Konstrukcja tej jednostki ilości informacji oparta jest na logarytmie o podstawie 10 (logarytm dziesiętny). Jednostką miary ilości informacji opartą na logarytmie o podstawie 2 jest bit, a na logarytmie o podstawie e (logarytm naturalny) – nat. Decyban jest jedną dziesiątą bana.
    gdzie: H(X) – entropia bezwarunkowa zbioru X, n – liczba zdarzeń w zbiorze, pi – prawdopodobieństwo zajścia zdarzenia xi.

    3. Ilość informacji o zdarzeniach ze zbioru X (wartościach zmiennej losowej X), np. komunikatach nadanych (stanach źródła informacji), zawarta w zdarzeniach ze zbioru Y (wartościach zmiennej losowej Y), np. komunikatach odebranych (stanach odbiorcy), tzw. informacja wzajemna, równa jest różnicy pomiędzy entropią bezwarunkową zbioru X (entropią źródła) a entropią zbioru X, jaka pozostaje po odebraniu komunikatu ze zbioru Y (entropią warunkową X pod warunkiem Y):

    Prawdopodobieństwo – ogólne określenie jednego z wielu pojęć służących modelowaniu doświadczenia losowego poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (w zastosowaniach często wyrażanych procentowo), wskazujących szanse ich zajścia. W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę nieprzewidywalności.Entropia – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.
    gdzie: I(X;Y) – informacja wzajemna Y o X, H(X) – entropia bezwarunkowa zbioru X, H(X|Y) – entropia warunkowa X pod warunkiem Y.

    Gdy odebrany komunikat zmniejsza nieokreśloność X do zera (), ilość przekazanej informacji jest równa entropii źródła . Także (zawartość informacji w źródle, w zmiennej losowej, samoinformacja), gdyż

    Konceptualizacja – proces tworzenia pojęć na podstawie ogólnej wiedzy o świecie poprzez ustalenie problematyki oraz definicję danego słowa. W jezyku angielskim i francuskim, odróżnia się notion – pojęcie przed-teoretyczne, i concept – pojęcie, które zostało steoretyzowane; konceptualizacja to proces mający miejsce między tymi dwiema fazami.Materia – w potocznym znaczeniu: ogół obiektywnie istniejących przedmiotów fizycznych, poznawalnych zmysłami. W fizyce termin "materia" ma kilka znaczeń.

    Przenoszenie i przetwarzanie informacji[]

    Informacja może być przenoszona w czasie i przestrzeni. Przenoszenie w czasie nazywamy magazynowaniem lub zapamiętywaniem, przenoszenie w przestrzeni – przekazem lub komunikowaniem. Przenoszenie informacji odbywa się za pośrednictwem obiektów fizycznych i zjawisk fizycznych zwanych nośnikami informacji. Magazynowanie związane jest najczęściej ze stanami wyróżnionymi obiektu fizycznego – podłoża zapisu, a przekaz ze stanami wyróżnionymi zjawiska fizycznego – sygnałami.

    Informatyka – dyscyplina nauki zaliczana do nauk ścisłych oraz techniki zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację. Początkowo stanowiła część matematyki, później rozwinęła się do odrębnej dyscypliny – pozostaje jednak nadal w ścisłej relacji z matematyką, która dostarcza informatyce podstaw teoretycznych.Cel (gr. τηλος, telos; łac. finis, terminus) - to, ze względu na co, następuje działanie; stan lub obiekt, do którego się dąży; cel (etyka), to kres świadomego działania.

    Problemami przetwarzania informacji zajmuje się informatyka.

    Informacja subiektywna[]

    Znaczenie informacji – koncepcja semantyczna[]

    Wartość informacji – koncepcja pragmatyczna[]

    Kognitywistyka[]

    W tej perspektywie, informacja jest indywidualną lub grupową interpretacją otrzymanego ciągu sygnałów (np. dźwiękowych czy optycznych) i musi zawsze opisywać stan jakiejś dziedziny.

    Negentropia (negatywna entropia, ujemna entropia) – w teorii systemów i cybernetyce – miara stopnia organizacji. Stanowi różnicę pomiędzy maksymalną możliwą wartością entropii – odpowiadającą całkowitej dezorganizacji systemu, a jej aktualną wartością. Przy dezorganizacji systemu negentropia maleje, podczas gdy entropia wzrasta i – na odwrót – wzrostowi organizacji odpowiada zawsze wzrost negentropii.Preferencje (ang. preference) są podstawowym pojęciem w teorii ekonomii oraz w mikroekonomii, szczególnie w teorii wyboru konsumenta i w teorii gier. Preferencje konsumenta odzwierciedlają i formalizują gusty konsumenta i nie zależą w żaden sposób od cen dóbr lub budżetu konsumenta, lecz wyłącznie od zadowolenia, satysfakcji, szczęścia lub użyteczności jakie mu zapewniają. Preferencje pozwalają konsumentowi dokonywać wyborów w obliczu rozmaitych alternatyw.

    Podejście kognitywistyczno-systemowe w meta-teorii TOGA daje nam ścisłe definicje rozróżniające dane, informacje, wiedzę i preferencje jako podstawowe funkcjonalne elementy procesów myślowych naturalnych i sztucznych (zobacz też: Sztuczna inteligencja). W tej systemowej interpretacji, informacja jest przetwarzana przez naszą wiedzę i w wyniku daje inną informację lub nową wiedzę. W zależności od tzw. indywidualnego systemu konceptualizacji, ten sam ciąg sygnałów/znaków (danych) może być źródłem różnych informacji dla różnych osób lub robotów.

    Przedmiot fizyczny (obiekt fizyczny) określa się tradycyjnie jako każdy przedmiot rozciągły w czasie i przestrzeni (choć konsekwencje zasady nieoznaczoności komplikują tę definicję). Jest sporne, czy istnieją jakieś przedmioty niefizyczne, np. przedmioty psychiczne i duchowe.Interdyscyplinarność to rodzaj współpracy naukowej, w której naukowcy, stosując typowe dla swoich dyscyplin metody nadawcze, starają się doprecyzować wstępnie sformułowany problem. W wyniku działań interdyscyplinarnych powstaje specyficzna nowa wiedza przedstawiająca podejście odmienne od podejść reprezentowanych przez dziedziny, na których się opiera.

    Jeśli grupa ludzi lub społeczeństwo ma w pewnej dziedzinie ten sam system konceptualizacyjny (np. teorie, zbiory poglądów, definicje), to te same sygnały komunikacyjne odbierają w ten sam sposób, to znaczy dostarczają im one tą samą informację do przetwarzania.

    Jeżeli danymi nazywamy wszystko, to co jest przetwarzalne (Gadomski), to informacja jest danymi, ale nie każde dane są informacją, np. „gołe” liczby są zawsze danymi, ale jeśli nadamy im znaczenie w określonej dziedzinie, to są też informacją, np. (5) i (5 stopni Celsjusza za naszym oknem).

    Gramatyka (z greki [τέχνη] γραμματική) – dział językoznawstwa zajmujący się badaniem reguł, które rządzą generowaniem wyrazów i zdań języka. W zakres gramatyki wchodzą: fonologia, morfologia oraz składnia. Terminem tym określa się także sam zbiór reguł określających zasady tworzenia poprawnych wypowiedzi, zatem można powiedzieć, że każdy język ma własną gramatykę.Społeczeństwo informacyjne – terminem określa się społeczeństwo, w którym towarem staje się informacja traktowana jako szczególne dobro niematerialne, równoważne lub cenniejsze nawet od dóbr materialnych. Przewiduje się rozwój usług związanych z 3P (przesyłanie, przetwarzanie, przechowywanie informacji).

    Podejście kognitywistyczne jest też bliskie rozumieniu informacji w języku naturalnym i jakie jest przyjęte w zarządzaniu wiedzą.

    Podstrony: [1] 2 [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Podmiot – byt, który subiektywnie doznaje, przeżywa, a także wchodzi w zależność z innym bytem (istnieniem) lub przedmiotem, przy czym w tej ostatniej relacji podmiot jest obserwatorem, a obiekt - rzeczą obserwowaną.
    Zmienna losowa – funkcja przypisująca zdarzeniom elementarnym liczby. Intuicyjnie: odwzorowanie przenoszące badania prawdopodobieństwa z niewygodnej przestrzeni probabilistycznej do dobrze znanej przestrzeni euklidesowej. Zmienne losowe to funkcje mierzalne względem przestrzeni probabilistycznych.
    Zbiór – pojęcie pierwotne teorii zbiorów (znanej szerzej jako teoria mnogości; za jej twórcę uważa się Georga Cantora) leżące u podstaw całej matematyki; intuicyjnie jest to nieuporządkowany zestaw różnych obiektów, czy też kolekcja niepowtarzających się komponentów bez wyróżnionej kolejności.
    System (stgr. σύστημα systema – rzecz złożona) – obiekt fizyczny lub abstrakcyjny, w którym można wyodrębnić zespół lub zespoły elementów wzajemnie powiązanych w układy, realizujących jako całość funkcję nadrzędną lub zbiór takich funkcji (funkcjonalność). Z uwagi na fakt, że wyodrębnienie wszystkich elementów przynależących do systemu bywa w praktyce niekiedy bardzo trudne, dlatego do badania systemów wykorzystuje się ich uproszczone modele. Elementy przynależące do jednego systemu nie mogą jednak stanowić jednocześnie elementów przynależnych do innego systemu.
    Jednostki informacji – najmniejszą jednostką informacji jest bit. Skróconym symbolem bitu jest b. Wyższe jednostki to:
    Komunikat, przekaz informacyjny - tekst (system złożony z wyrażeń danego języka o strukturze zgodnej z regułami syntaktyki (gramatyki) tego języka, skończony zbiór zdań danego języka) z przyporządkowaną mu materialną realizacją w postaci procesu fizycznego (sygnału) w medium transmisyjnym (komunikat czynny) lub stanu układu fizycznego (zapisu) na nośniku danych (komunikat bierny), przekazany przez nadawcę (nadajnik) komunikatu odbiorcy (odbiornikowi) komunikatu, lub odebrany przez odbiorcę (odbiornik), w jednym akcie komunikacji (procesie komunikacyjnym).
    Ilość informacji – wielkość ujmująca (przedstawiająca) ilościowo właściwość zmniejszania (usuwania) nieokreśloności (niepewności), czyli informację, termin używany w matematycznej teorii informacji.

    Reklama

    Czas generowania strony: 0.041 sek.