• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Big Data



    Podstrony: [1] 2 [3] [4]
    Przeczytaj także...
    Uczenie maszynowe albo uczenie się maszyn, systemy uczące się (ang. machine learning) – stosunkowo młoda i szybko rozwijająca się dziedzina wchodząca w skład nauk zajmujących się problematyką SI (patrz sztuczna inteligencja).Wizualizacja – ogólna nazwa graficznych metod tworzenia, analizy i przekazywania informacji. Za pomocą środków wizualnych ludzie wymieniają się zarówno ideami abstrakcyjnymi jak i komunikatami mającymi bezpośrednie oparcie w rzeczywistości. W dzisiejszych czasach wizualizacja wpływa na sposób prowadzenia badań naukowych, jest rutynowo wykorzystywana w dyscyplinach technicznych i medycynie, służy celom dydaktycznym, a także bywa pojmowana jako środek wyrazu artystycznego.
    Technologie[ | edytuj kod]

    Raport McKinsey Global Institute z 2011 roku scharakteryzował główne komponenty i ekosystem big data w następujący sposób:

  • techniki analizy danych, takich jak testy A/B, uczenie maszynowe i przetwarzanie języka naturalnego,
  • technologie big data takie jak business intelligence, przetwarzanie danych w chmurze oraz bazy danych,
  • wizualizacje, takich jak wykresy, grafy i inne formy prezentowania danych.
  • Wielowymiarowe big data mogą być również reprezentowane jako tensory, które mogą być wydajnie obsługiwane przez obliczenia oparte o tensory, takie jak wieloliniowe uczenie podprzestrzenne. Dodatkowe technologie, które znajdują zastosowanie w big data obejmują wielkoskalowe równoległe przetwarzanie baz danych, aplikacje oparte o szukanie, eksploracja danych, rozproszone systemy plików, rozproszone bazy danych, infrastruktura chmurowa (aplikacje, zasoby przetwarzające, pamięć) oraz Internet.

    Gartner – założona w 1979 roku w Stanach Zjednoczonych firma analityczno-doradcza specjalizująca się w zagadnieniach strategicznego wykorzystania technologii oraz zarządzania technologiami.Serial ATA (ang. Serial Advanced Technology Attachment, SATA) – szeregowa magistrala komputerowa, opracowana i certyfikowana przez SATA-IO, służąca do komunikacji pomiędzy adapterami magistrali hosta (HBA) a urządzeniami pamięci masowej, takimi jak dyski twarde, SSD, napędy optyczne i taśmowe. SATA jest bezpośrednim następcą równoległej magistrali ATA.

    Ale nie wszystkie bazy danych WRP mają zdolność do przechowywania i zarządzania petabajtami danych. Wnioskując jest możliwość doładowania, monitorowania, tworzenia kopii zapasowych oraz optymalizacji użycia ogromnymi tabelami danych w relacyjnych bazach danych.

    Topologiczna analiza danych poszukuje fundamentalnej struktury zbiorów olbrzymich danych. W 2008 roku technologia została upubliczniona wraz z założeniem firmy Ayasdi.

    Dobór próby jest częścią badania statystycznego. Polega na wybraniu pewnych indywidualnych obserwacji, które tworząc tzw. próbę statystyczną pozwolą uzyskać pewną wiedzę o całej populacji.Petabajt (skrót PB) – jednostka używana w informatyce oznaczająca (zgodnie z zaleceniami IEC) biliard = 1 125 899 906 842 624 bajtów.

    Praktycy procesów analizy big data są generalnie wrodzy dla wolniejszych współdzielonych pamięci, preferując bezpośrednio dołączone pamięci (DAS) w przeróżnych formach, od dysków SSD do wielko pojemnościowych dysków SATA zakopanych wewnątrz węzłów przetwarzania równoległego. Postrzeganie architektur współdzielonych pamięci jest takie, ze sa relatywnie wolne, złożone oraz drogie. Te wartości nie są zgodne z analitycznymi systemami big data, które czerpią z wydajności systemu, łatwo dostępnej infrastrukturze oraz niskich kosztów.

    Wiedza – termin używany powszechnie, istnieje wiele definicji tego pojęcia. Nowa Encyklopedia Powszechna definiuje wiedzę jako „ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania”.Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej. Wyróżnia się przetwarzanie numeryczne (stosunkowo skomplikowane algorytmy i niewielkie ilości danych) oraz systemowe (stosunkowo proste algorytmy i duże ilości danych).

    Rzeczywisty lub prawie rzeczywisty czas dostarczania informacji jest jedną z kluczowych charakterystyk analizy big data. Unika się opóźnień, chociaż są możliwe. Dane w pamięci są dobre – dane na dysku talerzowym na drugim końcu serwerowni.

    Są zalety tak samo jak wady w rozwiązaniu współdzielonych pamięci, ale praktycy analizy big data do 2011 roku nie faworyzują tego.

    Big data w zarządzaniu strategicznym[ | edytuj kod]

    Aktualnie Big Data oddziałuje praktycznie na każdy segment rynku, w którym zachodzi proces przetwarzania informacji. Należą do nich wszelkie instytucje, uczelnie, banki, przedsiębiorstwa produkcyjne a nawet ośrodki zdrowia. Wszystkie te segmenty wykorzystują szybki dostęp do potrzebnej informacji, która z kolei ma zasadniczy wpływ na optymalizację działalności. Big data umożliwia ponadto szczegółowe rozpoznanie potrzeb i wymagań konsumentów – ich źródłem są zwłaszcza szeroko pojęte media społecznościowe. Jako, że każda jednostka nastawiona na zysk chce w swoim funkcjonowaniu odnieść sukces, odpowiednie przetwarzanie danych w działaniach strategicznych możliwe jest tylko przy wykorzystaniu Big Data.

    Library of Congress Control Number (LCCN) – numer nadawany elementom skatalogowanym przez Bibliotekę Kongresu wykorzystywany przez amerykańskie biblioteki do wyszukiwania rekordów bibliograficznych w bazach danych i zamawiania kart katalogowych w Bibliotece Kongresu lub u innych komercyjnych dostawców. Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności).


    Podstrony: [1] 2 [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Terabajt (skrót TB), Tebibajt (skrót TiB) – jednostki używane w informatyce między innymi do określania rozmiaru największych pamięci masowych, zasobów plików i baz danych. Przedrostek tera pochodzi od greckiego słowa téras (potwór); przedrostek tebi został utworzony sztucznie (zob. przedrostek dwójkowy).
    Napęd półprzewodnikowy, SSD, solidoid (od ang. solid-state drive) – urządzenie pamięci masowej zbudowane w oparciu o pamięć flash.
    Apache Hadoop - otwarta implementacja paradygmatu MapReduce Google. Umożliwia tworzenie działających w rozproszeniu aplikacji, które przeprowadzają obliczenia na dużych ilościach danych. Jest jednym z projektów rozwijanych przez fundacje Apache. Jeszcze zanim osiągnął wydanie stabilne, był już wykorzystywany w poważnych zastosowaniach (Amazon, AOL, Facebook, Yahoo). Autorem projektu jest Doug Cutting.
    MapReduce jest stworzoną przez firmę Google platformą do przetwarzania równoległego dużych zbiorów danych w klastrach komputerów. Nazwa była zainspirowana funkcjami map i reduce z programowania funkcyjnego. Część platformy została opatentowana w USA.
    Eksploracja danych (spotyka się również określenie drążenie danych, pozyskiwanie wiedzy, wydobywanie danych, ekstrakcja danych) (ang. data mining) - jeden z etapów procesu odkrywania wiedzy z baz danych (ang. Knowledge Discovery in Databases, KDD). Idea eksploracji danych polega na wykorzystaniu szybkości komputera do znajdowania ukrytych dla człowieka (właśnie z uwagi na ograniczone możliwości czasowe) prawidłowości w danych zgromadzonych w hurtowniach danych.
    Fizyka cząstek elementarnych, fizyka wielkich energii – dział fizyki, którego celem jest badanie cząstek atomowych oraz oddziaływań zachodzących między nimi.
    Baza danych – zbiór danych zapisanych zgodnie z określonymi regułami. W węższym znaczeniu obejmuje dane cyfrowe gromadzone zgodnie z zasadami przyjętymi dla danego programu komputerowego specjalizowanego do gromadzenia i przetwarzania tych danych. Program taki (często pakiet programów) nazywany jest „systemem zarządzania bazą danych” (ang. database management system, DBMS).

    Reklama

    Czas generowania strony: 0.017 sek.