Negentropia

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Negentropia (negatywna entropia, ujemna entropia, ekstropia) – w teorii systemów i cybernetyce – miara stopnia organizacji. Stanowi różnicę pomiędzy maksymalną możliwą wartością entropii – odpowiadającą całkowitej dezorganizacji systemu, a jej aktualną wartością. Przy dezorganizacji systemu negentropia maleje, podczas gdy entropia wzrasta i – na odwrót – wzrostowi organizacji odpowiada zawsze wzrost negentropii.

Rozkład prawdopodobieństwa – w najczęstszej interpretacji (rozkład zmiennej losowej) miara probabilistyczna określona na sigma-ciele podzbiorów zbioru wartości zmiennej losowej (wektora losowego), pozwalająca przypisywać prawdopodobieństwa zbiorom wartości tej zmiennej, odpowiadającym zdarzeniom losowym. Formalnie rozkład prawdopodobieństwa może być jednak rozpatrywany także bez stosowania zmiennych losowych.Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.

Za pomocą pojęcia negentropii próbowano wyjaśnić funkcjonowanie organizmów żywych, miało ono opisywać zjawisko „eksportowania” entropii na zewnątrz przez żywe organizmy i złożone urządzenia techniczne (systemy), w celu utrzymania niskiego poziomu własnej, wewnętrznej entropii.

W 1943 roku, Erwin Schrödinger użył pojęcia ujemnej entropii w popularnonaukowej książce pt. What is life? (Czym jest życie?), aby zjawisko to zilustrować w bardziej „pozytywny” sposób: organizm (system) importuje z zewnątrz negatywną entropię i składuje ją wewnątrz. Jednakże w tym ujęciu, jest to tylko alternatywny sposób opisu zjawiska mogącego być opisanym przy użyciu znanych wielkości – entropii i energii swobodnej.

Léon Nicolas Brillouin (ur. 7 sierpnia 1889 w Sèvres - zm. 4 października 1969 w Nowym Jorku) – francuski fizyk. Profesor m.in. Sorbony i Uniwersytetu Harwarda. Autor prac dotyczących mechaniki kwantowej i teorii ciała stałego. Współtwórca pasmowej teorii ciała stałego. Zajmował się także cybernetyką, teorią informacji i filozoficznymi problemami nauki.Druga zasada termodynamiki – jedno z podstawowych praw termodynamiki, stwierdzające, że w układzie termodynamicznie izolowanym istnieje funkcja stanu, która z biegiem czasu nie maleje.

Léon Brillouin zastąpił termin: negatywna entropia pojedynczym słowem: negentropia.

W 1974, Albert Szent-Györgyi zaproponował zastąpienie terminu negentropia słowem syntropia. Słowo to wprowadził prawdopodobnie w latach 40. XX wieku włoski matematyk Luigi Fantappiè, przy próbach stworzenia zunifikowanej teorii dla jedności biologii i fizyki, bez większego jednak powodzenia. Buckminster Fuller również starał się popularyzować termin syntropii, niemniej negentropia jest nadal najczęściej używanym określeniem.

Energia wewnętrzna (oznaczana zwykle jako U lub Ew) w termodynamice – całkowita energia układu będącą sumą: energii potencjalnej i kinetycznej makroskopowych części układu, energii kinetycznej cząsteczek, energii potencjalnej oddziaływań międzycząsteczkowych i wewnątrzcząsteczkowych, etc.Biologia (z gr. βίος (bios) - życie i λόγος (logos) - słowo, nauka) – nauka przyrodnicza zajmująca się badaniem życia i organizmów żywych.

Obecnie termin ten jest stosowany głównie w teorii informacji i transhumanizmie (gdzie preferuje się synonim ekstropia). W ekstropianizmie ciągły wzrost ekstropii jest najwyższą wartością.

Negentropia w teorii informacji i statystyce[ | edytuj kod]

W teorii informacji i statystyce, negentropia jest miarą odległości rozkładu zmiennej, np. wartości cechy lub sygnału od rozkładu normalnego (Gaussa), jedną z miar koncentracji rozkładu. Podstawą porównania jest rozkład normalny, ponieważ zmienna o zadanej średniej i wariancji charakteryzuje się największą entropią właśnie dla rozkładu normalnego. Negentropia jest zawsze nieujemna, niezmienna względem dowolnego liniowego przekształcenia współrzędnych i równa zeru tylko, gdy zmienna ma rozkład normalny.

Ilya Prigogine (ros. Илья Романович Пригожин, ur. 25 stycznia 1917 w Moskwie, zm. 28 maja 2003 w Brukseli) - belgijski fizyk i fizykochemik pochodzenia rosyjskiego, arystokrata, laureat Nagrody Nobla z dziedziny chemii w roku 1977 za wkład w rozwój termodynamiki nierównowagowej procesów nieodwracalnych, a w szczególności za teorię struktur dyssypatywnych.Cybernetyka (gr. kybernetes "sternik; zarządca" od kybernán "sterować; kontrolować") – nauka o systemach sterowania oraz związanym z tym przetwarzaniu i przekazywaniu informacji (komunikacja).

Negentropia jest definiowana jako:

gdzie jest entropią różnicową rozkładu Gaussa o takiej samej średniej i wariancji jak rozkładu a jest entropią różnicową tego rozkładu. Entropia różnicowa zdefiniowana jest wzorem:

Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.

Negentropię stosuje się także w przetwarzaniu sygnałów, do analizy składowych niezależnych.

Teoria systemów bazuje na pojęciu system, pierwotnie była teorią biologiczną, następnie została rozwinięta i poszerzona przez cybernetyków i inżynierów (inżynieria systemowa), są w niej też nurty nauk społecznych jak socjologia i ekonomia. Ostatnio staje się też punktem odniesienia w kognitywistyce i informatyce i dąży do coraz to szerszych uogólnień jako "systemika" (ang. systemics) lub "ogólna teoria systemów".Produkcja entropii - w elementarnym procesie termodynamicznym, jest to różnica między przyrostem entropii układu dS, a przyrostem entropii dQ/T wynikającym z dostarczenia do układu ciepła z otoczenia:

Czym jest negentropia Schrödingera[ | edytuj kod]

Opis, w publikacji Schrödingera, ujemnej entropii nazwanej później negentropią, spotkał się z wątpliwościami i silnym sprzeciwem wśród fizyków, dlatego w późniejszych wydaniach książki Schrödinger dołączył adnotację, wyjaśniając tę koncepcję następująco:

Wariancja to w statystyce klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej.Energia gr. ενεργεια (energeia) – skalarna wielkość fizyczna charakteryzująca stan układu fizycznego (materii) jako jego zdolność do wykonania pracy.
Powiedzmy na wstępie, że gdybym zwracał się tylko do nich (fizyków), dyskusja skierowana byłaby na problem energii swobodnej. To pojęcie jest częściej używane w tym kontekście. Niemniej ten bardzo naukowo-techniczny termin wydawał się językowo zbyt bliski z terminem energia by pozwolić przeciętnemu czytelnikowi na rozróżnienie tych dwóch rzeczy.

Już to wyjaśnienie Schrödingera wskazuje, że negentropia nie jest entropią wziętą ze znakiem minus, a raczej pojęciem bliskim energii swobodnej. Energia swobodna, to ta część energii pobranej w pokarmie lub zmagazynowanej w organizmie, którą organizm może przetworzyć na pracę nieobjętościową. Organizm funkcjonuje przy stałym ciśnieniu i praktycznie w stałej temperaturze, w takich warunkach energia swobodna jest równa entalpii swobodnej zwanej funkcją Gibbsa.

Objętość – miara przestrzeni, którą zajmuje dane ciało w przestrzeni trójwymiarowej. W układzie SI jednostką objętości jest metr sześcienny, jednostka zbyt duża do wykorzystania w życiu codziennym. Z tego względu najpopularniejszą w Polsce jednostką objętości jest jeden litr (l) (1 l = 1 dm = 0,001 m³).Cecha statystyczna – właściwość populacji, która jest przedmiotem badania statystycznego. Zgodnie z definicją cecha statystyczna jest to funkcja przypisująca elementom populacji elementy zbioru wartości cechy statystycznej.


Podstrony: 1 [2] [3] [4]




Warto wiedzieć że... beta

Entropia – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.
Przemiana izobaryczna − proces termodynamiczny, podczas którego ciśnienie układu nie ulega zmianie, natomiast pozostałe parametry termodynamiczne czynnika mogą się zmieniać. Procesy izobaryczne mogą zachodzić zarówno w sposób odwracalny, jak i nieodwracalny. Odwracalny proces izobaryczny przedstawia na wykresie krzywa zwana izobarą. Praca wykonana przez układ (lub nad układem) w odwracalnym procesie izobarycznym jest równa ubytkowi (lub przyrostowi) entalpii układu. W szczególności, gdy jedyny wkład do pracy stanowi praca objętościowa (polegająca na zmianie objętości układu), jest ona wyrażona wzorem:
Przemiana izotermiczna - w termodynamice przemiana, zachodząca przy określonej, stałej temperaturze. Krzywa opisująca przemianę izotermiczną nazywana jest izotermą.
Josiah Willard Gibbs (ur. 11 lutego 1839, zm. 28 kwietnia 1903) – amerykański fizyk teoretyk, profesor Uniwersytetu Yale w New Haven. Wniósł duży wkład do termodynamiki chemicznej. Jako fizyk i matematyk współtworzył analizę wektorową. Był pierwszym doktorantem w zakresie inżynierii na Uniwersytecie Yale. W latach 1876-1878 Gibbs napisał i opublikował serię prac, które wydane w formie monografii noszą tytuł "O Równowadze Heterogenicznych Substancji". Uważa się, że dzieło to jest jednym z największych naukowych osiągnieć XIX wieku i stanowi fundament powstającej wówczas nowej dziedziny - chemii fizycznej. Gibbs jest również uważany za jednego z ojców mechaniki statystycznej. W 1902 Uniwersytet Yale opublikował jego klasyczną książkę "Mechanika Statystyczna" (Gibbs zresztą wprowadził tę nazwę). W 1901 otrzymał prestiżową nagrodę londyńskiego Towarzystwa Królewskiego (tzw. "Copley Medal").
Struktura dyssypatywna - jedno z podstawowych pojęć termodynamiki układów nierównowagowych. Są to dalekie od stanu równowagi stabilne stany stacjonarne, których powstaniu towarzyszy wzrost uporządkowania. Do utrzymania tych struktur (stanów) niezbędna jest ciągła nieodwracalna wymiana energii z otoczeniem. Taka wymiana prowadzi do dyssypacji. Pojęcie struktur dyssypatywnych wiąże się z pojęciem samoorganizacji.
Entalpia swobodna (funkcja Gibbsa, energia swobodna Gibbsa; symbol g lub G) – potencjał termodynamiczny zdefiniowany następująco:
Lars Onsager (ur. 27 listopada 1903 w Oslo, zm. 5 października 1976 w Coral Gables) – amerykański chemik, fizyk i matematyk pochodzenia norweskiego.

Reklama