• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Weryfikacja hipotez statystycznych



    Podstrony: [1] 2 [3] [4]
    Przeczytaj także...
    Statystyka to funkcja mierzalna określona na przestrzeni statystycznej, służąca do wyodrębnienia pewnych istotnych cech danych doświadczalnych. Jest szczególnym przypadkiem miary rozkładu. Pojęcie statystyki w statystyce matematycznej jest odpowiednikiem zmiennej losowej w rachunku prawdopodobieństwa.Rozkład prawdopodobieństwa – w najczęstszej interpretacji (rozkład zmiennej losowej) miara probabilistyczna określona na sigma-ciele podzbiorów zbioru wartości zmiennej losowej (wektora losowego), pozwalająca przypisywać prawdopodobieństwa zbiorom wartości tej zmiennej, odpowiadającym zdarzeniom losowym. Formalnie rozkład prawdopodobieństwa może być jednak rozpatrywany także bez stosowania zmiennych losowych.
    Alternatywne podejścia[ | edytuj kod]

    Powyższa standardowa procedura wymaga przyjęcia arbitralnego poziomu istotności a wynikiem weryfikacji jest odpowiedź binarna – albo statystyka testowa mieści się w przedziale ufności, albo nie.

    Alternatywnym i nowocześniejszym, choć mniej popularnym podejściem jest obliczenie zamiast tego surowej p-wartości (prawdopodobieństwa popełnienia błędu I rodzaju) i podawanie jej jako wyników weryfikacji. Dzięki temu nie ma potrzeby przyjmowania a priori żadnych wartości pozwala to również na porównywanie istotności różnych konkurencyjnych hipotez statystycznych.

    Test statystyczny - formuła matematyczna pozwalająca oszacować prawdopodobieństwo spełnienia pewnej hipotezy statystycznej w populacji na podstawie próby losowej z tej populacji.Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.

    Związane pojęcia[ | edytuj kod]

  • Poziom istotności – założony próg maksymalnego prawdopodobieństwa nieprawidłowego odrzucenia hipotezy zerowej (popełnienia błędu pierwszego rodzaju)
  • Moc statystyczna – prawdopodobieństwo prawidłowego przyjęcia hipotezy alternatywnej (niepopełnienia błędu drugiego rodzaju)
  • Test najsilniejszy – test, który przy danym poziomie istotności ma największą moc.
  • Test najsilniejszy jednoznacznie – test, który ma największą moc dla wszystkich poziomów istotności.
  • Test nieobciążony – test, którego moc przewyższa poziom istotności.
  • Wartość p, p-wartość, prawdopodobieństwo testowe (ang. p-value, probability value) – prawdopodobieństwo, że zjawisko jakie zaobserwowano w jakimś pomiarze na losowej próbie statystycznej z populacji, mogło wystąpić przypadkowo, wskutek losowej zmienności prób, w sytuacji w której w populacji takie zjawisko wcale nie występuje. Jest definiowane ściśle jako prawdopodobieństwo kumulatywne wylosowania próby takiej, lub bardziej skrajnej, jak zaobserwowana, przy założeniu że hipoteza zerowa jest spełniona. Wartość p jest używana we wnioskowaniu częstościowym przy weryfikacji hipotez statystycznych, jako narzędzie kontroli błędów pierwszego rodzaju – polegających na pochopnym uznawaniu fałszywych hipotez za prawdziwe. Jeśli wartość p jest niższa niż przyjęty z góry poziom istotności statystycznej, można postępować tak jakby hipoteza zerowa została odrzucona. Błąd pierwszego rodzaju (błąd pierwszego typu, alfa-błąd, false positive) − w statystyce pojęcie z zakresu weryfikacji hipotez statystycznych − błąd polegający na odrzuceniu hipotezy zerowej, która w rzeczywistości jest prawdziwa. Oszacowanie prawdopodobieństwa popełnienia błędu pierwszego rodzaju oznaczamy symbolem α (mała grecka litera alfa) i nazywamy poziomem istotności testu.


    Podstrony: [1] 2 [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Wnioskowanie częstościowe (ang. frequentist inference), NHST, (ang. null hypothesis significance testing), statystyka częstościowa – podejście w dziedzinie wnioskowania statystycznego oparte na falsyfikacji hipotez statystycznych w oparciu o ich oczekiwane długoterminowe właściwości. Jest ono amalgamatem metod wypracowanych przez Ronalda Fishera oraz Neymana i Pearsona. Jego główną właściwością jest to, że w długim horyzoncie czasowym, badacz posługujący się prawidłowo metodami częstościowymi nie popełni błędów decyzyjnych statystycznie częściej, niż założył. Charakterystycznym dla statystyki częstościowej narzędziem jest P-wartość testu. Głównymi alternatywnymi podejściami jest wnioskowanie bayesowskie i stosowanie ilorazów wiarygodności.
    Populacja statystyczna (inaczej populacja generalna, zbiorowość generalna) – zbiór elementów, podlegających badaniu statystycznemu.
    Technologia – metoda przygotowania i prowadzenia procesu wytworzenia lub przetwarzania jakiegoś dobra (także informacji). Technologia może oznaczać konkretny proces (np. technologia klejenia, technologia malowania).
    Replikacja to pojęcie z zakresu metodologii nauk oraz statystyki opisujące powtarzanie badań w celu zweryfikowania ich wyników jako część ustawicznego procesu autokorekcyjnego w metodzie naukowej. Słowami filozofa nauki Karla Poppera „niepowtarzalne, jednostkowe wydarzenia nie mają dla nauki żadnego znaczenia”. Statystyk Ronald Fisher dodaje: „możemy uznać, że zjawisko jest udowodnione eksperymentalnie wówczas, gdy wiemy, jak przeprowadzić eksperyment, który rzadko zawiedzie w wykazaniu istotnych statystycznie rezultatów.”
    Błąd drugiego rodzaju (błąd drugiego typu, błąd przyjęcia, beta-błąd, false negative) − w statystyce pojęcie z zakresu weryfikacji hipotez statystycznych polegające na nieodrzuceniu hipotezy zerowej, która jest w rzeczywistości fałszywa.
    Wielkość efektu – ilościowa miara siły zjawiska (np. różnica między grupą kontrolną a grupą eksperymentalną) obliczana na podstawie danych.
    Zdanie w sensie logiki (zdanie logiczne) – wypowiedź, która stwierdza określony stan rzeczy. Zdanie z języka J stwierdza (na mocy reguł semantycznych J) stan rzeczy s zawsze i tylko wtedy, gdy na mocy reguł semantycznych języka J: zdanie z jest prawdziwe zawsze i tylko wtedy, gdy s a z jest fałszywe zawsze i tylko wtedy, gdy nie jest tak, że s.

    Reklama

    Czas generowania strony: 0.847 sek.