Wnioskowanie bayesowskie

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Wnioskowanie bayesowskie (statystyka bayesowska) – metoda wnioskowania statystycznego, w której korzysta się z twierdzenia Bayesa do aktualizowania prawdopodobieństwa subiektywnego hipotez w oparciu o dotychczasowe prawdopodobieństwo oraz nowe dane. Wnioskowanie bayesowskie znajduje zastosowanie w wielu dziedzinach, takich jak badania naukowe, inżynieria, filozofia, medycyna, sport czy prawo.

Rozkład jednostajny (zwany też jednorodnym, równomiernym, prostokątnym albo płaskim) to ciągły rozkład prawdopodobieństwa, dla którego gęstość prawdopodobieństwa w przedziale od a do b jest stała i różna od zera, a poza nim równa zeru. Istnieje też wersja dyskretna tego rozkładu oraz uogólnienie na dowolne nośniki.Ronald Aylmer Fisher (ur. 17 lutego 1890 w Londynie, zm. 29 lipca 1962 w Adelaide) – genetyk i statystyk brytyjski, profesor eugeniki London School of Economics w latach (1933-1943) i profesor genetyki Uniwersytetu w Cambridge (1943-1957), członek Royal Society w Londynie (Towarzystwa Królewskiego). Anders Hald określił go jako "geniusza, który niemalże sam stworzył podstawy współczesnej statystyki", zaś Richard Dawkins jako "największego ze spadkobierców Darwina".

Twierdzenie Bayesa[ | edytuj kod]

Twierdzenie Bayesa opisuje zależność pomiędzy prawdopodobieństwem warunkowym zdarzeń oraz We wnioskowaniu bayesowskim używa się następujących podstawień:

Medycyna (łac. medicina „sztuka lekarska”) – nauka empiryczna (oparta na doświadczeniu) obejmująca całość wiedzy o zdrowiu i chorobach człowieka oraz sposobach ich zapobiegania, oraz ich leczenia. Medycyna weterynaryjna rozszerza zakres zainteresowań medycyny na stan zdrowia zwierząt. Za prekursora medycyny starożytnej uważa się Hipokratesa, a nowożytnej Paracelsusa. W czasach najnowszych wprowadza się zasady medycyny opartej na faktach.JSTOR (/dʒeɪ-stɔːr/, skrót od ang. Journal Storage) – biblioteka cyfrowa utworzona w 1995 roku. Początkowo zawierała cyfrowe kopie czasopism naukowych o wyczerpanym nakładzie. Następnie zaczęła zbierać także książki, materiały źródłowe oraz aktualne numery czasopism naukowych. Pozwala na wyszukiwanie w pełnej treści niemal 2000 czasopism naukowych.

Wzór wyraża następującą zależność: prawdopodobieństwo hipotezy H w świetle danych E, odpowiada prawdopodobieństwu danych E przy założeniu hipotezy H, pomnożonemu przez dotychczasowe prawdopodobieństwo hipotezy H, i podzielonemu przez prawdopodobieństwo danych E.

Wartość p, p-wartość, prawdopodobieństwo testowe (ang. p-value, probability value) – prawdopodobieństwo, że zjawisko jakie zaobserwowano w jakimś pomiarze na losowej próbie statystycznej z populacji, mogło wystąpić przypadkowo, wskutek losowej zmienności prób, w sytuacji w której w populacji takie zjawisko wcale nie występuje. Jest definiowane ściśle jako prawdopodobieństwo kumulatywne wylosowania próby takiej, lub bardziej skrajnej, jak zaobserwowana, przy założeniu że hipoteza zerowa jest spełniona. Wartość p jest używana we wnioskowaniu częstościowym przy weryfikacji hipotez statystycznych, jako narzędzie kontroli błędów pierwszego rodzaju – polegających na pochopnym uznawaniu fałszywych hipotez za prawdziwe. Jeśli wartość p jest niższa niż przyjęty z góry poziom istotności statystycznej, można postępować tak jakby hipoteza zerowa została odrzucona. Błąd pierwszego rodzaju (błąd pierwszego typu, alfa-błąd, false positive) − w statystyce pojęcie z zakresu weryfikacji hipotez statystycznych − błąd polegający na odrzuceniu hipotezy zerowej, która w rzeczywistości jest prawdziwa. Oszacowanie prawdopodobieństwa popełnienia błędu pierwszego rodzaju oznaczamy symbolem α (mała grecka litera alfa) i nazywamy poziomem istotności testu.

Po sformułowaniu hipotezy naukowej jako modelu matematycznego możemy przy pomocy twierdzenia Bayesa wielokrotnie aktualizować nowe prawdopodobieństwo (a posteriori) tej hipotezy w świetle napływających danych i jej dotychczasowego prawdopodobieństwa (a priori). Zjawiska uważane za mało prawdopodobne a priori wymagają odpowiednio silnych dowodów, aby zmienić przekonanie badacza. Metoda ta pozwala także na dowolne określenie a priori oczekiwanych rozkładów tych parametrów modelu, które nie mają bezpośredniego znaczenia poznawczego, w celu zwiększenia szybkości i precyzji obliczeń.

Jerzy Spława-Neyman (ur. 16 kwietnia 1894 w Benderach, zm. 5 sierpnia 1981 w Oakland w Kalifornii) – polski i amerykański matematyk i statystyk. Był on twórcą nowoczesnego pojęcia przedziału ufności i wprowadził je do teorii testowania hipotez statystycznych.Thomas Bayes (ur. ok. 1702 w Londynie — zm. 17 kwietnia 1761) brytyjski matematyk i duchowny prezbiteriański, znany ze sformułowania opublikowanego pośmiertnie twierdzenia Bayesa, które to zapoczątkowało dział statystyki.

Metody bayesowskie mają szereg zastosowań praktycznych – pozwalają obliczyć, z użyciem matematycznego modelu badanego zjawiska wraz z jego prawdopodobieństwem, m.in. oszacowania, prognozy i przedziały wiarygodności nieznanych parametrów, lub weryfikować hipotezy statystyczne z użyciem czynnika Bayesa.

Abraham Wald (ur. 31 października 1902 w Klużu, zm. 13 grudnia 1950 w górach Nilgiri) – matematyk i statystyk pochodzenia żydowskiego, urodzony w Klużu w Austro-Węgrzech, na terenie obecnej Rumunii. Wniósł duży wkład w dziedziny teorii decyzji, geometrii i ekonometrii, był wiodącym twórcą technik analizy sekwencyjnej. Wykładowca i pracownik naukowy uniwersytetu Columbia. Modelowanie matematyczne to użycie języka matematyki do opisania zachowania jakiegoś układu (na przykład układu automatyki, biologicznego, ekonomicznego, elektrycznego, mechanicznego, termodynamicznego).


Podstrony: 1 [2] [3]




Warto wiedzieć że... beta

Library of Congress Control Number (LCCN) – numer nadawany elementom skatalogowanym przez Bibliotekę Kongresu wykorzystywany przez amerykańskie biblioteki do wyszukiwania rekordów bibliograficznych w bazach danych i zamawiania kart katalogowych w Bibliotece Kongresu lub u innych komercyjnych dostawców.
Hipoteza (gr. hypóthesis – przypuszczenie) – osąd, który podlega weryfikacji lub falsyfikacji. Zdanie, które stwierdza spodziewaną relację między jakimiś zjawiskami, propozycja twierdzenia naukowego, które zakłada możliwą lub oczekiwaną w danym kontekście sytuacyjnym naturę związku.
Twierdzenie Bayesa (od nazwiska Thomasa Bayesa) to twierdzenie teorii prawdopodobieństwa, wiążące prawdopodobieństwa warunkowe zdarzeń A | B {displaystyle A|B;} oraz B | A {displaystyle B|A;} . Na przykład jeśli A {displaystyle A;} jest zdarzeniem „u pacjenta występuje wysoka gorączka”, a B {displaystyle B;} jest zdarzeniem „pacjent ma grypę”, twierdzenie Bayesa pozwala przeliczyć znany odsetek gorączkujących wśród chorych na grypę P ( A | B ) {displaystyle P(A|B);} i znane odsetki gorączkujących P ( A ) {displaystyle P(A);} i chorych na grypę P ( B ) {displaystyle P(B);} w całej populacji, na prawdopodobieństwo, że ktoś jest chory na grypę, gdy wiemy, że ma wysoką gorączkę P ( B | A ) {displaystyle P(B|A);} . Twierdzenie stanowi podstawę teoretyczną sieci bayesowskich, stosowanych w eksploracji danych.
Błąd drugiego rodzaju (błąd drugiego typu, błąd przyjęcia, beta-błąd, false negative) − w statystyce pojęcie z zakresu weryfikacji hipotez statystycznych polegające na nieodrzuceniu hipotezy zerowej, która jest w rzeczywistości fałszywa.
GNU R to język programowania i środowisko do obliczeń statystycznych i wizualizacji wyników. Jest to projekt GNU podobny do języka i środowiska S stworzonego w Bell Laboratories (dawniejsze AT&T, obecnie Lucent Technologies) przez Johna Chambersa i jego współpracowników. R jako implementacja języka S została stworzona przez Roberta Gentlemana i Rossa Ihakę na uniwersytecie w Auckland . Nazwa pochodzi od pierwszych liter imion twórców oraz jest nawiązaniem do języka S. W tej chwili GNU R rozprowadzany jest w postaci kodu źródłowego oraz w postaci binarnej wraz z wieloma dystrybucjami Linuksa. Dostępna jest także wersja dla Microsoft Windows i Mac OS.
Wnioskowanie statystyczne to dział statystyki zajmujący się problemami uogólniania wyników badania próby losowej na całą populację oraz szacowania błędów wynikających z takiego uogólnienia (patrz badanie statystyczne).
Wektor (z łac. [now.], „niosący; ten, który niesie; nośnik”, od vehere, „nieść”; via, „droga”) – istotny w matematyce elementarnej, inżynierii i fizyce obiekt mający moduł (zwany też – zdaniem niektórych niepoprawnie - długością lub wartością), kierunek wraz ze zwrotem (określającym orientację wzdłuż danego kierunku).

Reklama