• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Mechanika statystyczna

    Przeczytaj także...
    Claude Elwood Shannon (urodzony 30 kwietnia 1916 - zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera) - amerykański matematyk i inżynier, profesor MIT. Jeden z twórców teorii informacji. Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.Energia wewnętrzna (oznaczana zwykle jako U lub Ew) w termodynamice – całkowita energia układu będącą sumą: energii potencjalnej i kinetycznej makroskopowych części układu, energii kinetycznej cząsteczek, energii potencjalnej oddziaływań międzycząsteczkowych i wewnątrzcząsteczkowych, etc.
    Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.

    Mechanika statystyczna (lub fizyka statystyczna) – gałąź fizyki, zajmująca się układami wielu oddziałujących ciał. Specyfiką tej teorii jest jej metoda. Poszczególne ciała są bowiem opisane przez zmienne losowe. Obliczenia prowadzone w ramach mechaniki statystycznej dotyczą średnich z tych zmiennych z wykorzystaniem metod statystycznych. Fizyczną podstawą mechaniki statystycznej jest termodynamika fenomenologiczna.

    Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.Termodynamika klasyczna, nazywana też fenomenologiczną, zajmuje się makroskopowymi, równowagowymi zjawiskami termodynamicznymi w oparciu o pewne aksjomaty poparte doświadczeniami. Ze względu na fakt, że nauka ta zajmuje się układami w stanie równowagi, w związku z czym nie zajmuje się zmiennością w czasie, niektórzy uważają, że powinna nosić nazwę termostatyki (określenie to nie przyjęło się, pomimo że jego wprowadzenie postulowano już w latach 70). Zajmuje się badaniem wcześniej wspomnianych zjawisk, tylko z punktu widzenia energetycznych efektów makroskopowych, nie wnikając w naturę tych przemian na poziomie pojedynczych cząsteczek.

    Z mechaniki statystycznej można wydzielić teorię stanów równowagi termodynamicznej. Ta teoria jest daleko bardziej rozwinięta, niż teoria nierównowagowa. Powszechnie używa się tu tzw. formalizmu sumy statystycznej. Sama suma statystyczna nie ma znaczenia fizycznego, natomiast jest wielkością użyteczną do obliczania wielkości fizycznych. Recepta na obliczenie sumy statystycznej dla danego układu jest na ogół uważana za równoznaczną z określeniem jego własności równowagowych.

    Ludwig Eduard Boltzmann (ur. 20 lutego 1844 w Wiedniu, Austria, zm. 5 września 1906 w Duino niedaleko Triestu, Włochy) – austriacki fizyk. Autor podstawowych prac z kinetycznej teorii gazów. Podał statystyczne objaśnienie II zasady termodynamiki.Prawdopodobieństwo – ogólne określenie jednego z wielu pojęć służących modelowaniu doświadczenia losowego poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (w zastosowaniach często wyrażanych procentowo), wskazujących szanse ich zajścia. W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę nieprzewidywalności.

    Równowagowa mechanika statystyczna korzysta z kluczowego założenia, że prawdopodobieństwo pozostawania przez układ w danym stanie zależy tylko od energii tego stanu. Stan równowagi jest więc stanem, w którym informacja o przeszłości układu nie jest istotna.

    Entropia mikroskopowa, czynnik Boltzmanna i suma statystyczna[]

    Podstawą mechaniki statystycznej (fizyki statystycznej) jest definicja entropii pochodząca od Boltzmanna:

    Entropia – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.Potencjał chemiczny – pochodna cząstkowa energii wewnętrznej po liczbie cząstek, przy stałej objętości i entropii układu. Oznaczany jest przez μ {displaystyle mu } lub μ i {displaystyle mu _{i}} . Może być również definiowany jako pochodna cząstkowa innej funkcji stanu: entalpii, energii swobodnej czy entalpii swobodnej po liczbie cząstek, przy czym pochodna jest obliczona przy zachowanych innych parametrach: ciśnieniu czy też temperaturze. Pojęcie to wprowadził do nauki w 1875 r J.W. Gibbs. Odgrywa ono zasadniczą rolę w termodynamice chemicznej. Jest podstawą do definicji aktywności termodynamicznej, występuje w kryteriach równowagi procesów oraz stosowane jest do opisu układów złożonych i do wyprowadzenia stałych równowagi fazowej i chemicznej.
    Entropia makroskopowa układu jest proporcjonalna do logarytmu liczby mikroskopowych stanów układu.

    Współczynnik proporcjonalności oznaczany przez k nazywany jest stałą Boltzmanna. Z tej definicji wynika, że gdy układ w stanie mikroskopowym o energii E jest w równowadze termicznej z termostatem o temperaturze T (β=1/kT), to prawdopodobieństwo tego stanu jest proporcjonalne do

    Zmienna losowa – funkcja przypisująca zdarzeniom elementarnym liczby. Intuicyjnie: odwzorowanie przenoszące badania prawdopodobieństwa z niewygodnej przestrzeni probabilistycznej do dobrze znanej przestrzeni euklidesowej. Zmienne losowe to funkcje mierzalne względem przestrzeni probabilistycznych.Równowaga termodynamiczna – pojęcie stosowane w termodynamice. Oznacza stan, w którym makroskopowe parametry układu, takie jak ciśnienie, objętość i wszystkie funkcje stanu, są stałe w czasie. Na równowagę termodynamiczną składają się: równowaga chemiczna (brak makroskopowego przepływu cząstek i reakcji chemicznych), mechaniczna (nie występują niezrównoważone siły) i termiczna (nie występuje przepływ energii).

    tą wielkość nazywamy czynnikiem Boltzmanna. Te prawdopodobieństwa wysumowane po wszystkich stanach mikroskopowych muszą dać jedność. Pozwala to zdefiniować sumę statystyczną:

    Stała Boltzmanna – stała fizyczna pojawiająca się w równaniach określających rozkłady energii cząsteczek. Oznaczana jest symbolem k lub kB i związana jest równaniemStan termodynamiczny to wartość wszystkich funkcji stanu (np. ciśnienie, objętość, temperatura, masa, entropia, energia wewnętrzna) układu termodynamicznego w określonej chwili.

    gdzie jest energią i-tego stanu mikroskopowego. Suma statystyczna jest miarą liczby stanów dostępnych przez układ fizyczny.

    Energia swobodna - w termodynamice, część energii układu fizycznego, która może być przekształcona w pracę. W szczególności do energii swobodnej zaliczamy:Potencjały termodynamiczne – w termodynamice, wielkości fizyczne związane z układem termodynamicznym, określane jako funkcje niezależnych parametrów makroskopowych charakteryzujących układ termodynamiczny, za pomocą których można w pełni i jednoznacznie opisać stan układu termodynamicznego. Określiwszy potencjał termodynamiczny uzyskuje się nie tylko wszystkie pozostałe parametry układu, ale także inne wielkości makroskopowe charakteryzujące układ oraz zachodzące w nim procesy termodynamiczne. Przez to, dla ustalonych niektórych parametrów, umożliwiają one wygodniejsze, niż bezpośrednio z zasad termodynamiki, określenie samorzutności oraz warunków równowagi procesów odwracalnych.

    Prawdopodobieństwo znalezienia się układu w poszczególnym stanie (i) w temperaturze T z energią Ei jest równe

    Związki z termodynamiką[]

    Suma statystyczna może posłużyć do wyliczenia wartości oczekiwanej (średniej) dowolnej mikroskopowej wielkości. Na przykład średnia mikroskopowa energia E jest interpretowana jako energia wewnętrzna (U) w termodynamice. Tak więc

    Fizyka (z stgr. φύσις physis – "natura") – nauka przyrodnicza zajmująca się badaniem właściwości i przemian materii i energii oraz oddziaływań między nimi. Do opisu zjawisk fizycznych używają wielkości fizycznych, wyrażonych za pomocą pojęć matematycznych, takich jak liczba, wektor, tensor. Tworząc hipotezy i teorie fizyki, budują relacje pomiędzy wielkościami fizycznymi.

    wraz z interpretacją <E> jako U, daje następującą definicje energii wewnętrznej:

    Entropię określamy z wzoru (entropia Shannona)

    który daje

    gdzie F jest energia swobodną układu fizycznego, stąd

    Mając zdefiniowane podstawowe potencjały termodynamiczne U (energię wewnętrzną), S (entropię) i F (energię swobodną), można otrzymać wszystkie wielkości termodynamiczne opisujące układ fizyczny.

    Zmienna liczba cząstek[]

    W przypadku gdy liczba cząstek nie jest zachowana, należy wprowadzić potencjał chemiczny, μj, j = 1,...,n i zamienić sumę statystyczną na

    gdzie Nij jest liczba cząstek rodzaju j w i-tym stanie mikroskopowym.

    To samo z użyciem zespołu wielkiego kanonicznego:




    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Reklama