Ekonofizyka

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Ekonofizyka (ang. econophysics, niem. Ökonophysik) [również fizyka ekonomiczna, czasem ekonomia fizyczna] – inter- i multi-dyscyplinarne podejście zajmujące się zastosowaniem (głównie) metod fizyki statystycznej w szeroko-rozumianych naukach ekonomicznych. Wykorzystywane są tutaj koncepcje i metody fizyki oraz matematyki takie jak np.: teoria macierzy przypadkowych, zjawiska krytyczne, skalowanie, fraktale, multifraktale, chaos deterministyczny (teoria chaosu), teoria turbulencji, sieci złożone, teoria strun, fluktuacje, teoria gier, teoria katastrof. W szczególności dużym sukcesem okazało się zastosowanie narzędzi fizyki układów złożonych (m.in. metoda Monte Carlo, prawa potęgowe skalowania, skalowanie wielowymiarowe) do analizy danych finansowych.

Mechanika kwantowa (teoria kwantów) – teoria praw ruchu obiektów świata mikroskopowego. Poszerza zakres mechaniki na odległości czasoprzestrzenne i energie, dla których przewidywania mechaniki klasycznej nie sprawdzały się. Opisuje przede wszystkim obiekty o bardzo małych masach i rozmiarach - np. atom, cząstki elementarne itp. Jej granicą dla średnich rozmiarów lub średnich energii czy pędów jest mechanika klasyczna.Skalowanie – proporcjonalna zmiana wszystkich rozmiarów (wraz z jednostkami) stosowanych do opisu układu fizycznego lub jego modelu matematycznego zachowująca ogólny przebieg zachodzących w nim procesów (zob. analiza wymiarowa); błędne przeprowadzenie tej procedury może zaburzyć matematyczną naturę opisu niektórych zjawisk, co może prowadzić do błędów w interpretowaniu ich za pomocą tak przeskalowanego modelu.

Ekonofizyka jako dyscyplina naukowa[ | edytuj kod]

Ekonofizyka to interdyscyplinarne podejście do zagadnień ekonomicznych uwzględniające przede wszystkim metody fizyczne i matematyczne, ale także symulacje komputerowe (informatykę). Kilka uczelni w Polsce oferuje specjalność ekonofizyka. Studia zapewniają podstawową wiedzę w zakresie:

Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.Sieć złożona to graf o nietrywialnych właściwościach topologicznych. Przykłady takich sieci to: WWW, Internet, sieć współpracy pomiędzy aktorami, sieć współpracy pomiędzy naukowcami, sieć kontaktów seksualnych. W badaniach nad sieciami złożonymi uczestniczą naukowcy z wielu dziedzin, m.in.: matematyki, fizyki, biologii, informatyki, socjologii, epidemiologii.
  • matematyki (rachunek różniczkowy i całkowy, algebra, teoria gier),
  • fizyki doświadczalnej i teoretycznej (podstawy fizyki, pracownia fizyczna, mechanika klasyczna, kwantowa, statystyczna, fizyka układów wielu ciał, teoria przejść fazowych),
  • symulacji komputerowych (języki programowania, metody numeryczne, symulacje procesów fizycznych, metody Monte Carlo),
  • ekonomii (podstawy organizacji i zarządzania, teoria finansów, podstawy analizy finansowej).
  • Zobacz też[ | edytuj kod]

  • ekonometria
  • statystyka
  • ekonomia matematyczna
  • probabilistyka
  • matematyka
  • badania operacyjne
  • teoria decyzji
  • Fluktuacja, wahania przypadkowe - przypadkowe, nie dające się przewidzieć, odchylenia od wartości średniej zmiennej losowej (np. wielkości fizycznej) podlegającej stochastycznym zmianom w czasie i nie wykazujące żadnej tendencji.Badania operacyjne - dyscyplina naukowa związana z teorią decyzji pozwalająca wyznaczyć metodę i rozwiązanie określonych problemów związanych z podjęciem optymalnych decyzji. Badania operacyjne to zbiór metod matematycznych i statystycznych, obejmujących m. in.:




    Warto wiedzieć że... beta

    Teoria prawdopodobieństwa (także rachunek prawdopodobieństwa lub probabilistyka) – dział matematyki zajmujący się zdarzeniami losowymi. Rachunek prawdopodobieństwa zajmuje się badaniem abstrakcyjnych pojęć matematycznych stworzonych do opisu zjawisk, które nie są deterministyczne: zmiennych losowych w przypadku pojedynczych zdarzeń oraz procesów stochastycznych w przypadku zdarzeń powtarzających się (w czasie). Jako matematyczny fundament statystyki, teoria prawdopodobieństwa odgrywa istotną rolę w sytuacjach, w których konieczna jest analiza dużych zbiorów danych. Jednym z największych osiągnięć fizyki dwudziestego wieku było odkrycie probabilistycznej natury zjawisk fizycznych w skali mikroskopijnej, co zaowocowało powstaniem mechaniki kwantowej.
    Skalowanie wielowymiarowe (Multidimensional scaling - MDS) – technika statystyczna, mająca na celu wykrycie zmiennych ukrytych, które choć nie obserwowane bezpośrednio, wyjaśniają podobieństwa i różnice pomiędzy badanymi obiektami.
    Ekonometria – nauka pomocnicza w ramach ekonomii, wykorzystująca narzędzia matematyki, statystyki oraz informatyki do badania ilościowych związków zachodzących między zjawiskami i zmiennymi ekonomicznymi. Jest zbiorem metod opracowanych najczęściej poza ekonomią, ale wykorzystywanych na jej polu.
    Teoria decyzji to wspólny obszar zainteresowań wielu różnych dziedzin nauki, obejmujący analizę i wspomaganie procesu podejmowania decyzji. Korzystają z niej i rozwijają ją: kognitywistyka, matematyka, statystyka, psychologia, socjologia, ekonomia, zarządzanie, filozofia, informatyka oraz medycyna.
    Teoria katastrof (nazywana również teorią morfogenezy lub teorią przejść nieciągłych) to dział matematyki, zajmujący się systemami dynamicznymi, w szczególności sytuacjami, gdy ciągła zmiana parametru kontrolnego prowadzi do jakościowych zmian zachowania systemu. Jej autorem jest francuski matematyk René Thom.
    Teoria strun (TS) – teoria przewidująca, że podstawowym budulcem materii nie są cząstki w postaci punktu, lecz struny wielkości 10 metra.
    Metoda Monte Carlo (MC) jest stosowana do modelowania matematycznego procesów zbyt złożonych (obliczania całek, łańcuchów procesów statystycznych), aby można było przewidzieć ich wyniki za pomocą podejścia analitycznego. Istotną rolę w metodzie MC odgrywa losowanie (wybór przypadkowy) wielkości charakteryzujących proces, przy czym losowanie dokonywane jest zgodnie z rozkładem, który musi być znany.

    Reklama