• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Zależność zmiennych losowych



    Podstrony: 1 [2] [3] [4]
    Przeczytaj także...
    Wartość bezwzględna a. moduł – dla danej liczby rzeczywistej wartość liczbowa nieuwzględniająca znaku liczby. Przykładowo Parser nie mógł rozpoznać (Nie można zapisać obrazu z wzorem w systemie plików.): 5Miara produktowa – dla danych dwóch miar, miara określona na produktowej przestrzeni mierzalnej, która iloczynowi kartezjańskiemu zbiorów mierzalnych (należących do odpowiednich σ {displaystyle sigma } -algebr) przyporządkowuje iloczyn ich miar.
    Wykresy rozrzutu pokazujące przykładowe zależności między zmiennymi wraz z odpowiadającymi im wartościami współczynnika korelacji Pearsona

    Zależność statystyczna zmiennych losowych (korelacja) – związek pomiędzy dwiema zmiennymi losowymi i .

    Korelacja rangowa – dowolna statystyka pozwalająca na określenie zależności zmiennych losowych w sposób niezmienniczy ze względu na operację rangowania.Elżbieta Pleszczyńska (ur. 20 marca 1933 w Woli Wydrzynej) – statystyk, profesor zwyczajny nauk matematycznych, działaczka społeczna na rzecz pomocy niepełnosprawnym.

    Intuicyjnie, zależność dwóch zmiennych oznacza, że znając wartość jednej z nich, dałoby się przynajmniej w niektórych sytuacjach dokładniej przewidzieć wartość drugiej zmiennej, niż bez tej informacji.

    W dalszej części artykułu będziemy rozważać zmienne losowe o wartościach rzeczywistych i zdarzenia określone na ustalonej przestrzeni probabilistycznej . Jeśli jest zmienną losową, to symbolem oznaczać będziemy jej rozkład.

    Definicja intuicyjna: Odpowiednik transformaty Fouriera dla miar probabilistycznych, rozkładów prawdopodobieństwa i zmiennych losowych.Twierdzenie odwrotne – dla danego twierdzenia twierdzenie w którym założenie zamieniono z tezą wyjściowego twierdzenia. Niech będzie dane twierdzenie: jeśli A, to B; wtedy twierdzenie odwrotne do niego jest zdaniem jeśli B, to A. Twierdzenie odwrotne do danego prawdziwego twierdzenia nie musi być zdaniem prawdziwym. Twierdzenie odwrotne jest równoważne twierdzeniu przeciwnemu.

    Spis treści

  • 1 Zmienne rzeczywiste
  • 1.1 Niezależność statystyczna
  • 1.2 Zależność statystyczna
  • 1.3 Szczególne przypadki
  • 1.3.1 Zależność monotoniczna
  • 1.3.2 Zależność liniowa
  • 2 Zmienne losowe o wartościach rzeczywistych
  • 2.1 Niezależność dowolnej rodziny zmiennych losowych
  • 2.2 Wartość oczekiwana iloczynu niezależnych zmiennych losowych
  • 3 Niektóre twierdzenia wykorzystujące założenie niezależności zmiennych
  • 4 Popularne błędy
  • 4.1 Zależność a rozkłady zmiennych
  • 4.2 Zależność a współczynnik korelacji
  • 4.3 Zależność a związek przyczynowo-skutkowy
  • 4.4 Niesprawdzanie istotności statystycznej
  • 4.5 Obserwacje odstające
  • 5 Przypisy
  • 6 Bibliografia
  • 7 Zobacz też
  • Funkcja charakterystyczna zbioru – jedno z pojęć matematycznych, mających zastosowanie w teorii miary i teorii ciągów funkcji mierzalnych. Przykładem funkcji charakterystycznej jest funkcja Dirichleta (funkcja charakterystyczna zbioru liczb wymiernych).Wydawnictwa Naukowo-Techniczne (WNT) – polskie wydawnictwo założone w 1949 z siedzibą w Warszawie, do 1961 działało pod firmą Państwowe Wydawnictwa Techniczne.

    Zmienne rzeczywiste[]

    Niezależność statystyczna[]

    Mówimy, że zmienne losowe niezależne, gdy dla każdych liczb rzeczywistych zachodzi równość

    Powyższy wzór jest uogólniany na dowolną liczbę zmiennych (por. rozdział Zmienne losowe o wartościach rzeczywistych.)

    Współczynnik korelacji liniowej Pearsona – współczynnik określający poziom zależności liniowej między zmiennymi losowymi. Został opracowany przez Karla PearsonaTwierdzenie Fubiniego – jedno z podstawowych twierdzeń w analizie matematycznej i teorii miary w pełnej ogólności wprowadzone i udowodnione przez włoskiego matematyka Guido Fubiniego.

    W szczególności niezależność każdej dla pary zmiennych nie oznacza koniecznie niezależności wszystkich zmiennych .

    Rozkład warunkowy dwuwymiarowej zmiennej losowej ( X , Y ) {displaystyle (X,Y);} przedstawia się wzorem:Nierówność Kołmogorowa - w rachunku prawdopodobieństwa, nierówność leżąca u podstaw wielu twierdzeń granicznych (np. niektóre prawa wielkich liczb). Szczególnym przypadkiem tej nierówności (tzn. dla jednej zmiennej losowej) jest nierówność Czebyszewa.

    Zależność statystyczna[]

    Mówimy, że zmienne losowe zależne, gdy nie są one niezależne - to znaczy, dla pewnych liczb rzeczywistych

    lub w języku dystrybuant:

    Zmienna losowa – funkcja przypisująca zdarzeniom elementarnym liczby. Intuicyjnie: odwzorowanie przenoszące badania prawdopodobieństwa z niewygodnej przestrzeni probabilistycznej do dobrze znanej przestrzeni euklidesowej. Zmienne losowe to funkcje mierzalne względem przestrzeni probabilistycznych.Współczynnik korelacji – liczba określająca w jakim stopniu zmienne są współzależne. Jest miarą korelacji dwu (lub więcej) zmiennych. Istnieje wiele różnych wzorów określanych jako współczynniki korelacji. Większość z nich jest normalizowana tak, żeby przybierała wartości od −1 (zupełna korelacja ujemna), przez 0 (brak korelacji) do +1 (zupełna korelacja dodatnia).

    Szczególne przypadki[]

    Zależność monotoniczna[]

    Dodatnia zależność monotoniczna zachodzi, gdy zwiększenie wartości jednej ze zmiennych oznacza zwiększenie wartości oczekiwanej drugiej zmiennej. Analogicznie ujemna zależność monotoniczna zachodzi, gdy zwiększenie jednej ze zmiennych oznacza zmniejszenie drugiej.

    Przyrost naturalny – różnica pomiędzy liczbą urodzeń żywych a liczbą zgonów. Wartość dodatnia oznacza liczbę urodzeń przewyższającą liczbę zgonów, ujemna - odwrotnie. Jeśli mamy do czynienia z wartością ujemną, mówimy o ubytku naturalnym. Przyrost naturalny różni się od przyrostu rzeczywistego o saldo migracji. Przyrost naturalny obliczymy wzorem: Pn=U-Z. Występujące we wzorze wartości zazwyczaj podawane są jako wartości względne, tzn. przeliczane na 1000 mieszkańców i wtedy określane są jako: stopa albo współczynnik przyrostu naturalnego, rodność i umieralność.Twierdzenie Poissona dostarcza dobrego przybliżenia uzyskania konkretnej liczby sukcesów w schemacie Bernoulliego w przypadku, gdy prawdopodobieństwo sukcesu jest małe oraz iloczyn prawdopodobieństwa sukcesu i liczby prób dąży do pewnej stałej.

    Ściśle zależność monotoniczna (a konkretniej jej odmiana zwana Quadrant Dependence) została określona przez Lehmana (1966). Dodatnia zależność monotoniczna:

    Ujemna zależność monotoniczna:

    Wartość oczekiwana (wartość średnia, przeciętna, dawniej nadzieja matematyczna) – w rachunku prawdopodobieństwa wartość określająca spodziewany wynik doświadczenia losowego. Wartość oczekiwana to inaczej pierwszy moment zwykły. Estymatorem wartości oczekiwanej rozkładu cechy w populacji jest średnia arytmetyczna.Zbiór borelowski – podzbiór przestrzeni topologicznej, który można uzyskać za pomocą przeliczalnych sum i przekrojów zbiorów domkniętych (bądź zwartych) tej przestrzeni. Klasa zbiorów uzyskanych za pomocą tych operacji tworzy σ-ciało nazywane σ-ciałem zbiorów borelowskich lub σ-ciałem borelowskim danej przestrzeni topologicznej. Nazwa została wprowadzona dla uhonorowania prac francuskiego matematyka Émile Borela, który pierwszy badał te zbiory i ich zastosowania.

    Istnieją też inne definicje zależności monotonicznej. Lehman podał także dwie silniejsze definicje, a Kowalczyk i Pleszczyńska (1977) także definicję słabszą.

    Dyskretny rozkład prawdopodobieństwa to w probabilistyce rozkład prawdopodobieństwa zmiennej losowej dający się opisać przez podanie wszystkich przyjmowanych przez nią wartości, wraz z prawdopodobieństwem przyjęcia każdej z nich. Funkcja przypisująca prawdopodobieństwo do konkretnej wartości zmiennej losowej jest nazywana funkcją rozkładu prawdopodobieństwa (probability mass function, pmf). Zachodzi:Obserwacja odstająca, element odstający (ang. outlier) – obserwacja posiadająca nietypową wartość zmiennej niezależnej (objaśniającej) lub nietypowe wartości obydwu zmiennych – zależnej (objaśnianej) i objaśniającej (objaśniających w analizie regresji wielokrotnej). Oznacza to, że związek między Xi a Yi dla danej obserwacji jest inny niż dla reszty obserwacji w zbiorze danych.

    Powyższe definicje obejmują skrajny przypadek zależności zmiennych (). W praktyce zależność nie musi być pełna. Miarą stopnia zależności monotonicznej są współczynniki korelacji rangowej.

    Zależność liniowa[]

  • Szczególnym przypadkiem zależności monotonicznej jest zależność liniowa. W przypadku skrajnym zachodzi, gdy jedna ze zmiennych jest liniowo zależna od drugiej zmiennej. W praktyce tu również zależność nie musi być pełna. Miarą stopnia zależności liniowej jest np. współczynnik korelacji Pearsona.
  • Jeżeli zmienne losowe są niezależne i całkowalne, to ich kowariancja jest równa zeru. Bezpośrednim wnioskiem z tego twierdzenia jest następujący fakt:
  • Jeżeli zmienne losowe są całkowalne i parami niezależne, to
  • .
    Miara Lebesgue’a (czyt. „lebega”) – pojęcie teorii miary formalizujące i uogólniające intuicje związane z takimi pojęciami (w zależności od wymiaru) jak długość, pole powierzchni czy objętość bryły. Historycznie pojęcie miary (nazywanej dziś miarą Lebesgue’a) pochodzi z pracy Henriego Lebesgue’a, dotyczącej rozszerzenia pojęcia całki na klasy funkcji określonych także na innych zbiorach niż przedziały domknięte (tzw. całka Lebesgue’a).Poziom istotności – jest to maksymalne dopuszczalne prawdopodobieństwo popełnienia błędu I rodzaju (zazwyczaj oznaczane symbolem α). Określa tym samym maksymalne ryzyko błędu, jakie badacz jest skłonny zaakceptować. Wybór wartości α zależy od badacza, natury problemu i od tego, jak dokładnie chce on weryfikować swoje hipotezy, najczęściej przyjmuje się α = 0,05; rzadziej 0,1, 0,03, 0,01 lub 0,001. Wartość założonego poziomu istotności jest porównywana z wyliczoną z testu statystycznego p-wartością (czasem porównuje się od razu wartości statystyki testowej z wartością odpowiadającą danemu poziomowi istotności). Jeśli p-wartość jest większa, oznacza to, iż nie ma powodu do odrzucenia tzw. hipotezy zerowej H0, która zwykle stwierdza, że obserwowany efekt jest dziełem przypadku.


    Podstrony: 1 [2] [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Zbiór liczb rzeczywistych – uzupełnienie zbioru liczb wymiernych. Zbiór liczb rzeczywistych zawiera m.in. liczby naturalne, ujemne, całkowite, pierwiastki liczb dodatnich, wymierne, niewymierne, przestępne, itd. Z drugiej strony na liczby rzeczywiste można też patrzeć jak na szczególne przypadki liczb zespolonych.
    Prawa wielkich liczb - seria twierdzeń matematycznych (jedno z tzw. twierdzeń granicznych), opisujących związek między liczbą wykonywanych doświadczeń a faktycznym prawdopodobieństwem wystąpienia zdarzenia, którego te doświadczenia dotyczą. Najprostsza i historycznie najwcześniejsza postać prawa wielkich liczb to prawo Bernoulliego sformułowane przez szwajcarskiego matematyka Jakoba Bernoulliego w książce Ars Conjectandi (1713). Prawo Bernoulliego orzeka, że:
    Zdarzenia losowe niezależne - zdarzenia A , B ∈ A {displaystyle A,Bin {mathcal {A}}} na pewnej ustalonej przestrzeni probabilistycznej ( Ω , A , P ) {displaystyle (Omega ,{mathcal {A}},P)} spełniające warunek
    Dystrybuanta (fr. distribuer „rozdzielać, rozdawać”) – w rachunku prawdopodobieństwa, statystyce i dziedzinach pokrewnych, funkcja rzeczywista jednoznacznie wyznaczająca rozkład prawdopodobieństwa (tj. miarę probabilistyczną określoną na σ-ciele borelowskich podzbiorów prostej), a więc zawierająca wszystkie informacje o tym rozkładzie. Dystrybuanty są efektywnym narzędziem badania prawdopodobieństwa, ponieważ są obiektami prostszymi niż rozkłady prawdopodobieństwa. W statystyce dystrybuanta rozkładu próby zwana jest dystrybuantą empiryczną i jest blisko związana z pojęciem rangi.
    Korelacja (łac. śr. correlation-, correlatio, od com-, „razem, łącznie”; i relation-, relatio, „związek, relacja”) – współzależność, wzajemny związek; wyraz ten oznacza zwykle jedno z następujących pojęć:
    Koincydencja (fr. coincident, od śred. łac. im. czas. coincidere, od co-, „razem, współ-” i incidere, „upadać na”, od in- i cadere, „upadać”, być może spokr. z sanskr. śad-, „spaść”) – pojęcie zdefiniowane po raz pierwszy przez Arthura Schopenhauera w Űber den Willen in der Natur (Ponad wolą w naturze) w 1836 r. Określił ją jako „jednoczesne występowanie zdarzeń, które nie są związane ze sobą przyczynowo. Jednoczesne zdarzenia przebiegają w równoległych liniach. Jedno i to samo zdarzenie będące ogniwem w zupełnie różnych łańcuchach występuje ponadto w kilku innych, tak że los jednostki spotyka się nieuchronnie z losem innej. Każdy z nas jest głównym aktorem we własnym dramacie, równocześnie zaś gra jakąś rolę w innym, obcym mu dramacie”. Potocznie koincydencję rozumie się jako przypadek, zbieg okoliczności lub (nieoczekiwaną) zbieżność zdarzeń.
    Ciągły rozkład prawdopodobieństwa - rozkład prawdopodobieństwa dla którego dystrybuanta jest funkcją ciągłą. Stosowana jest też węższa definicja, przedstawiona poniżej w sekcji bezwzględna ciągłość.

    Reklama

    Czas generowania strony: 0.077 sek.