• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Mechanika statystyczna



    Podstrony: [1] [2] 3
    Przeczytaj także...
    Encyklopedia PWN – encyklopedia internetowa, oferowana – bezpłatnie i bez konieczności uprzedniej rejestracji – przez Wydawnictwo Naukowe PWN. Encyklopedia zawiera około 122 tysiące haseł i 5 tysięcy ilustracji.Mechanika klasyczna – dział mechaniki w fizyce opisujący ruch ciał (kinematyka), wpływ oddziaływań na ruch ciał (dynamika) oraz badaniem równowagi ciał materialnych (statyka). Mechanika klasyczna oparta jest na prawach ruchu (zasadach dynamiki) sformułowanych przez Isaaca Newtona, dlatego też jest ona nazywana „mechaniką Newtona” (Principia). Mechanika klasyczna wyjaśnia poprawnie zachowanie się większości ciał w naszym otoczeniu.
    Przypisy[ | edytuj kod]
    1. Fizyka statystyczna, [w:] Encyklopedia PWN [online] [dostęp 2021-07-29].

    Linki zewnętrzne[ | edytuj kod]

  • Lawrence Sklar, Philosophy of Statistical Mechanics, [w:] Stanford Encyclopedia of Philosophy [online], CSLI, Stanford University, 24 lipca 2015, ISSN 1095-5054 [dostęp 2017-12-31] (ang.). (Filozofia mechaniki statystycznej)
  • Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.Stanford Encyclopedia of Philosophy (SEP) jest ogólnie dostępną encyklopedią internetową filozofii opracowaną przez Stanford University. Każde hasło jest opracowane przez eksperta z danej dziedziny. Są wśród nich profesorzy z 65 ośrodków akademickich z całego świata. Autorzy zgodzili się na publikację on-line, ale zachowali prawa autorskie do poszczególnych artykułów. SEP ma 1260 haseł (stan na 20 stycznia 2011). Mimo, że jest to encyklopedia internetowa, zachowano standardy typowe dla tradycyjnych akademickich opracowań, aby zapewnić jakość publikacji (autorzy-specjaliści, recenzje wewnętrzne).


    Podstrony: [1] [2] 3



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.
    Termodynamika klasyczna, nazywana też fenomenologiczną, zajmuje się makroskopowymi, równowagowymi zjawiskami termodynamicznymi w oparciu o pewne aksjomaty poparte doświadczeniami. Ze względu na fakt, że nauka ta zajmuje się układami w stanie równowagi, w związku z czym nie zajmuje się zmiennością w czasie, niektórzy uważają, że powinna nosić nazwę termostatyki (określenie to nie przyjęło się, pomimo że jego wprowadzenie postulowano już w latach 70). Zajmuje się badaniem wcześniej wspomnianych zjawisk, tylko z punktu widzenia energetycznych efektów makroskopowych, nie wnikając w naturę tych przemian na poziomie pojedynczych cząsteczek.
    Ludwig Eduard Boltzmann (ur. 20 lutego 1844 w Wiedniu, Austria, zm. 5 września 1906 w Duino niedaleko Triestu, Włochy) – austriacki fizyk. Autor podstawowych prac z kinetycznej teorii gazów. Podał statystyczne objaśnienie II zasady termodynamiki.
    Library of Congress Control Number (LCCN) – numer nadawany elementom skatalogowanym przez Bibliotekę Kongresu wykorzystywany przez amerykańskie biblioteki do wyszukiwania rekordów bibliograficznych w bazach danych i zamawiania kart katalogowych w Bibliotece Kongresu lub u innych komercyjnych dostawców.
    Prawdopodobieństwo – ogólne określenie jednego z wielu pojęć służących modelowaniu doświadczenia losowego poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (w zastosowaniach często wyrażanych procentowo), wskazujących szanse ich zajścia. W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę nieprzewidywalności.
    Entropia – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.
    Potencjał chemiczny – pochodna cząstkowa energii wewnętrznej po liczbie cząstek, przy stałej objętości i entropii układu. Oznaczany jest przez μ {displaystyle mu } lub μ i {displaystyle mu _{i}} . Może być również definiowany jako pochodna cząstkowa innej funkcji stanu: entalpii, energii swobodnej czy entalpii swobodnej po liczbie cząstek, przy czym pochodna jest obliczona przy zachowanych innych parametrach: ciśnieniu czy też temperaturze. Pojęcie to wprowadził do nauki w 1875 r J.W. Gibbs. Odgrywa ono zasadniczą rolę w termodynamice chemicznej. Jest podstawą do definicji aktywności termodynamicznej, występuje w kryteriach równowagi procesów oraz stosowane jest do opisu układów złożonych i do wyprowadzenia stałych równowagi fazowej i chemicznej.

    Reklama

    Czas generowania strony: 0.018 sek.