• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Metaanaliza



    Podstrony: 1 [2] [3]
    Przeczytaj także...
    Badania eksploracyjne (EDA, ang. exploratory data analysis) – podejście we wnioskowaniu statystycznym obejmujące opis, wizualizację i badanie zebranych danych bez potrzeby zakładania z góry hipotez badawczych. Jest wstępnym etapem procesu naukowego. Może korzystać z metod modelowania statystycznego i weryfikacji hipotez statystycznych, ale używa ich do odnajdywania, a nie potwierdzania idei. Ma ona na celu wzbogacenia wiedzy naukowej o hipotezy, które mogą nasunąć nieukierunkowana obserwacja i analizy. Badania eksploracyjne obejmują też wstępne sprawdzanie danych w celu skontrolowania założeń modeli statystycznych, lub występowania błędów w danych (np. brakujących odpowiedzi). Jest to klasyczne podejście, z którego wraz z rosnącą dostępnością komputerów wyłoniła się dziedzina komputerowej eksploracji danych (data miningu), oraz data science i big data. Eksplorację danych jako osobne podejście spopularyzował statystyk John Tukey.PMID (ang. PubMed Identifier, PubMed Unique Identifier) – unikatowy identyfikator przypisany do każdego artykułu naukowego bazy PubMed.
    Wizualizacja wyników pojedynczych badań typu forest plot w przeglądzie publikacji na temat schizofrenii.
    Wizualizacja wyników pojedynczych badań typu forest plot w przeglądzie publikacji na temat schizofrenii.

    Metaanaliza, meta-analiza – pojęcie z zakresu analizy danych i wnioskowania statystycznego, określające wtórne odkrywanie wiedzy metodą uogólniania informacji zawartych w publikacjach czy źródłach pierwotnych.

    Gene V. Glass (ur. 1940) – amerykański statystyk, profesor Arizona State University i pracownik National Education Policy Center. Zajmuje się głównie badaniami edukacyjnymi. W 1976 r. ukuł termin metaanaliza na oznaczenie metody łączenia wyników liczbowych wielu badań w jedno podsumowujące zestawienie. Złudzenie publikacyjne, tendencyjność publikacyjna, efekt szuflady – zafałszowanie naukowego obrazu rzeczywistości powstające wskutek wybiórczości w publikowaniu wyników naukowych. Może ono powstawać między innymi wówczas, gdy autorzy lub wydawcy nie interesują się wynikami, które uważają za mało interesujące lub niezgodne z ich poglądami, lub celowo ukrywają takie wyniki (stąd „efekt szuflady”). Wynika również z niezrozumienia lub nieintuicyjności metodologii weryfikacji zerowych hipotez statystycznych – obserwuje się, że wyniki zerowe są publikowane rzadziej od pozytywnych, na przykład w przeglądzie badań medycznych z 1987 roku trzykrotnie rzadziej. Studiowanie literatury przedmiotu daje więc zniekształcony obraz proporcji badań, w których dane twierdzenie zostało potwierdzone i sfalsyfikowane. Autorzy mogą więc pomijać raportowanie „nieudanych” badań i eksperymentów. Problem ten pogłębia dodatkowo dziennikarstwo popularnonaukowe, które dokonuje kolejnej, wybiórczej selekcji wyników badań, skupiając się w informacji publicznej na sensacyjnych rezultatach, i pomijając wyniki zerowe – jak demonstruje analiza z 2017 roku.

    Najczęściej metaanaliza przybiera postać przeglądu systematycznego literatury z jakiegoś obszaru, wzbogaconego o analizę (najczęściej statystyczną) uzyskanych wcześniej wyników, wnioskowanie i podsumowanie. Uważa się, że metaanaliza jest samodzielnym i pełnoprawnym rodzajem badania naukowego (z ang. integrative research lub literature-based discovery). Narzędzie to pozwala określić, jakie wnioski płyną z całości publikacji z danego tematu, dając dokładniejszą i szerszą wiedzę niż analizowanie pojedynczych badań. Pojęcie ukuł Gene V. Glass w 1976 r., zaś spopularyzował w 1978 r. Robert Rosenthal, choć proste metody tego typu opisywano już wcześniej, jak np. test łączonego prawdopodobieństwa Ronalda Fishera.

    GNU R to język programowania i środowisko do obliczeń statystycznych i wizualizacji wyników. Jest to projekt GNU podobny do języka i środowiska S stworzonego w Bell Laboratories (dawniejsze AT&T, obecnie Lucent Technologies) przez Johna Chambersa i jego współpracowników. R jako implementacja języka S została stworzona przez Roberta Gentlemana i Rossa Ihakę na uniwersytecie w Auckland . Nazwa pochodzi od pierwszych liter imion twórców oraz jest nawiązaniem do języka S. W tej chwili GNU R rozprowadzany jest w postaci kodu źródłowego oraz w postaci binarnej wraz z wieloma dystrybucjami Linuksa. Dostępna jest także wersja dla Microsoft Windows i Mac OS.Wnioskowanie statystyczne to dział statystyki zajmujący się problemami uogólniania wyników badania próby losowej na całą populację oraz szacowania błędów wynikających z takiego uogólnienia (patrz badanie statystyczne).

    Metaanaliza uprawnia do wyciągania pewniejszych wniosków ze zbioru badań, zwłaszcza oszacowań wielkości efektu, niż bardziej nieformalne metody, takie jak najprostsze zliczanie wyników badań „za” i „przeciwko” hipotezie. Do porównywania kilku metod postępowania jednocześnie może służyć metaanaliza sieciowa.

    Eksploracja danych (spotyka się również określenie drążenie danych, pozyskiwanie wiedzy, wydobywanie danych, ekstrakcja danych) (ang. data mining) - jeden z etapów procesu odkrywania wiedzy z baz danych (ang. Knowledge Discovery in Databases, KDD). Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych.Przegląd systematyczny – rodzaj przeglądu piśmiennictwa, skupiający się na jednym zagadnieniu, wykonanym w oparciu o dowody naukowe (wiarygodne publikacje wyników pierwotnych badań naukowych), zawierającym opis identyfikacji, oceny, wyboru i podsumowania (syntezy) tych wyników. Przegląd systematyczny piśmiennictwa stanowi źródło wtórne wiedzy.

    Typowa procedura[ | edytuj kod]

    Funnel plot z meta-analizy badań nad zjawiskiem zagrożenia stereotypem u nastolatek, sugerujący obecność w literaturze tendencyjności publikacji, ze względu na obecność grupy wyników wykraczających poza oczekiwaną symetrię
    Funnel plot z meta-analizy badań nad zjawiskiem zagrożenia stereotypem u nastolatek, sugerujący obecność w literaturze tendencyjności publikacji, ze względu na obecność grupy wyników wykraczających poza oczekiwaną symetrię

    Procedura metaanalityczna ma najczęściej podobną postać:

    Wielkość efektu – ilościowa miara siły zjawiska (np. różnica między grupą kontrolną a grupą eksperymentalną) obliczana na podstawie danych.Analiza danych – proces przetwarzania danych w celu uzyskania na ich podstawie użytecznych informacji i wniosków. W zależności od rodzaju danych i stawianych problemów, może to oznaczać użycie metod statystycznych, eksploracyjnych i innych.
    1. Zadeklarowanie a priori tematu przeglądu, kryteriów wyboru publikacji i procedury analitycznej
    2. Zebranie wszystkich prac spełniających kryteria i sporządzenie wyciągu z ich analiz statystycznych
    3. Zbadanie homogeniczności wyników badań
    4. Zestawienie i wizualizacja wyników (np. forest plot)
    5. Jeśli potrzeba, redukcja heterogeniczności badań
    6. Obliczenie ogólnego współczynnika wielkości efektu z wyników badań
    7. Analiza wariancji wielkości efektu w zależności od charakterystyki badań

    Inne często spotykane elementy to narzędzia kontroli jakości metodologicznej i tendencyjności publikacji, takie jak funnel plot i P-curve. W oparciu o ich wyniki można, jeśli jest taka potrzeba, przedstawić ogólną wielkość efektu z poprawką na błędy metodologiczne.

    DOI (ang. digital object identifier – cyfrowy identyfikator dokumentu elektronicznego) – identyfikator dokumentu elektronicznego, który w odróżnieniu od identyfikatorów URL nie zależy od fizycznej lokalizacji dokumentu, lecz jest do niego na stałe przypisany.Kontrola autorytatywna – w terminologii bibliotekoznawczej określenie procedur zapewniających utrzymanie w sposób konsekwentny haseł (nazw, ujednoliconych tytułów, tytułów serii i haseł przedmiotowych) w katalogach bibliotecznych przez zastosowanie wykazu autorytatywnego zwanego kartoteką wzorcową.


    Podstrony: 1 [2] [3]




    Warto wiedzieć że... beta

    Badania naukowe – prace podejmowane przez badacza lub zespół badaczy w celu osiągnięcia postępu wiedzy naukowej, ustalenia nowych twierdzeń naukowych, tez, aksjomatów, uogólnień i definicji. Badania te mogą być podejmowane w 4 zasadniczych przypadkach:
    International Standard Serial Number, ISSN czyli Międzynarodowy Znormalizowany Numer Wydawnictwa Ciągłego – ośmiocyfrowy niepowtarzalny identyfikator wydawnictw ciągłych tradycyjnych oraz elektronicznych. Jest on oparty na podobnej koncepcji jak identyfikator ISBN dla książek, ISAN dla materiałów audio-wideo. Niektóre publikacje wydawane w seriach mają przyporządkowany zarówno numer ISSN, jak i ISBN.
    Gemeinsame Normdatei (GND) – kartoteka wzorcowa, stanowiąca element centralnego katalogu Niemieckiej Biblioteki Narodowej (DNB), utrzymywanego wspólnie przez niemieckie i austriackie sieci biblioteczne.

    Reklama

    Czas generowania strony: 0.671 sek.