• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Uczenie maszynowe



    Podstrony: 1 [2] [3] [4] [5]
    Przeczytaj także...
    Indukcja (ang. induction; łac. inducito – wprowadzenie) – w psychologii indukcja oznacza przenoszenie emocji lub innych treści psychicznych między danymi osobami w procesie komunikacji.Racjonalizm (łac. ratio – rozum; rationalis – rozumny, rozsądny) – filozoficzne podejście w epistemologii zakładające możliwość dotarcia do prawdy z użyciem samego rozumu z pominięciem doświadczenia, poprzez stworzenie systemu opartego na aksjomatach, z których poprzez dedukcję można wywieść całość wiedzy. Racjonalizm w nowożytnej filozofii wywodzi się od Kartezjusza. W anglosaskiej tradycji filozoficznej bywa nazywany racjonalizmem kontynentalnym.

    Uczenie maszynowe, samouczenie się maszyn albo systemy uczące się (ang. machine learning) – dziedzina wchodząca w skład nauk zajmujących się problematyką SI (patrz sztuczna inteligencja). Jest to nauka interdyscyplinarna ze szczególnym uwzględnieniem takich dziedzin jak informatyka (m.in. programowanie, robotyka, bazy danych) oraz statystyka (m.in statystyczna analiza danych). Głównym celem jest praktyczne zastosowanie dokonań w dziedzinie sztucznej inteligencji do stworzenia automatycznego systemu potrafiącego doskonalić się przy pomocy zgromadzonego doświadczenia (czyli danych) i nabywania na tej podstawie nowej wiedzy.

    Bing (poprzednio: Windows Live Search i MSN Search) – stworzona przez amerykańską firmę Microsoft wyszukiwarka internetowa, początkowo jako część portalu MSN, później stała się częścią Windows Live, obecnie jest samodzielną wyszukiwarką. Producent nazywa ją nie tylko wyszukiwarką internetową, ale również silnikiem decyzyjnym ze względu na liczbę zaimplementowanych funkcji pomagających podjąć decyzję odnośnie np. restauracji czy biletów lotniczych.Robotyka – interdyscyplinarna dziedzina wiedzy działająca na styku mechaniki, automatyki, elektroniki, sensoryki, cybernetyki oraz informatyki. Domeną robotyki są również rozważania nad sztuczną inteligencją – w niektórych środowiskach robotyka jest wręcz z nią utożsamiana.

    Charakterystyka[ | edytuj kod]

    Uczenie maszynowe jest konsekwencją rozwoju idei sztucznej inteligencji i metod jej wdrażania praktycznego. Dotyczy rozwoju oprogramowania stosowanego zwłaszcza w innowacyjnych technologiach i przemyśle. Odpowiednie algorytmy mają pozwolić oprogramowaniu na zautomatyzowanie procesu pozyskiwania i analizy danych do ulepszania i rozwoju własnego systemu.

    Drzewo decyzyjne – graficzna metoda wspomagania procesu decyzyjnego, stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów.Medycyna (łac. medicina „sztuka lekarska”) – nauka empiryczna (oparta na doświadczeniu) obejmująca całość wiedzy o zdrowiu i chorobach człowieka oraz sposobach ich zapobiegania, oraz ich leczenia. Medycyna weterynaryjna rozszerza zakres zainteresowań medycyny na stan zdrowia zwierząt. Za prekursora medycyny starożytnej uważa się Hipokratesa, a nowożytnej Paracelsusa. W czasach najnowszych wprowadza się zasady medycyny opartej na faktach.

    Uczenie się może być rozpatrywane jako konkretyzacja algorytmu czyli dobór parametrów, nazywanych wiedzą lub umiejętnością. Służy do tego wiele typów metod pozyskiwania wiedzy oraz sposobów reprezentowania wiedzy.

    Ma to zapewnić zwiększanie:

  • efektywności
  • wydajności
  • bezawaryjności
  • redukcji kosztów.
  • Początki uczenia maszynowego[ | edytuj kod]

    Pierwszym przykładem maszynowego uczenia się może być projekt Arthura Samuela z firmy IBM, który w latach 1952-1962 rozwijał program do szkolenia zawodników szachowych.

    Przełomem w dziedzinie sztucznej inteligencji i maszynowego uczenia się było powstanie systemu eksperckiego Dendral na Uniwersytecie Stanforda w 1965. System ten powstał w celu zautomatyzowania analizy i identyfikacji molekuł związków organicznych, które dotychczas nie były znane chemikom. Wyniki badań otrzymane dzięki systemowi Dendral były pierwszym w historii odkryciem dokonanym przez komputer, które zostały opublikowane w prasie specjalistycznej.

    Programowanie komputerów to proces projektowania, tworzenia, testowania i utrzymywania kodu źródłowego programów komputerowych lub urządzeń mikroprocesorowych (mikrokontrolery). Kod źródłowy jest napisany w języku programowania, z użyciem określonych reguł, może on być modyfikacją istniejącego programu lub czymś zupełnie nowym. Programowanie wymaga dużej wiedzy i doświadczenia w wielu różnych dziedzinach, jak projektowanie aplikacji, algorytmika, struktury danych, znajomość języków programowania i narzędzi programistycznych, wiedza nt. kompilatorów, czy sposób działania podzespołów komputera. W inżynierii oprogramowania, programowanie (implementacja) jest tylko jednym z etapów powstawania programu.Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.

    W 1977 powstaje program AM (Automated Mathematician) napisany w języku programowania Lisp, którego autorem był Doug Lenat. Służył do zautomatyzowanego poszukiwania nowych praw matematycznych korzystając z algorytmów heurystycznych. Następcą AM został, również stworzony przez Lenata, program Eurisko.

    Badania nad uczeniem maszynowym nabierają tempa od początku lat 90., kiedy Gerald Tesauro stworzył program TD-Gammon, potrafiący konkurować w grze Backgammon z mistrzami świata. Aby dojść do takiej perfekcji program ten uczył się swojej strategii grając jako przeciwnik w ponad milionie gier. Algorytm zaimplementowany w programie znalazł później zastosowanie w neuronauce.

    Gramatyka formalna – sposób opisu języka formalnego, czyli podzbioru zbioru wszystkich słów skończonej długości nad danym alfabetem.Mikroekonomia – dziedzina ekonomii zajmująca się badaniem wyborów ludzkich w warunkach rzadkości dóbr, w tym w szczególności badaniem zachowań indywidualnych konsumentów i przedsiębiorstw oraz interakcji między tymi zachowaniami na poszczególnych rynkach. Jest to nauka zajmująca się szczegółową analizą podejmowanych przez jednostki decyzji dotyczących produkcji oraz wymiany (zakupu i sprzedaży) dóbr.

    W 1997 Garri Kasparow, mistrz świata w szachach, został pokonany w tzw. miniaturze (partia trwała jedynie 19 posunięć) przez komputer Deep Blue w ostatniej z sześciu rozgrywek, w której został znacznie unowocześniony przez firmę IBM. Kasparow zarzucił firmie IBM oszustwo, kiedy odmówiła mu dostępu do historii wcześniejszych gier Deep Blue. W ten sposób Kasparow nie był w stanie analizować strategii przeciwnika, podczas gdy twórcy Deep Blue niezwykle dokładnie analizowali i opracowywali wszystkie wcześniejsze rozgrywki Kasparowa tworząc odpowiednie algorytmy programu. Pozostało mu jedynie studiowanie sposobów gry ogólnodostępnych programów szachowych. Rosyjski szachista domagał się rewanżu, ale firma IBM nie zgodziła się i Deep Blue przeszedł na „emeryturę”. Krytycy wielokrotnie zarzucali firmie IBM, że zamiast sprawiedliwej rywalizacji szachowej mieli na celu wypromowanie swych rozwiązań technologicznych i marki.

    Psychologia (od stgr. ψυχή Psyche = dusza, i λόγος logos = słowo, myśl, rozumowanie) – nauka badająca mechanizmy i prawa rządzące psychiką oraz zachowaniami człowieka. Psychologia bada również wpływ zjawisk psychicznych na interakcje międzyludzkie oraz interakcję z otoczeniem. Psychologia jako nauka dotyczy ludzi, ale mówi się również o psychologii zwierząt (czyli zoopsychologii), chociaż zachowaniem się zwierząt zajmuje się także dziedzina biologii – etologia.Ekonomia – nauka społeczna analizująca oraz opisująca produkcję, dystrybucję oraz konsumpcję dóbr. Słowo „ekonomia” wywodzi się z języka greckiego i tłumaczy się jako oikos, co znaczy dom i nomos, czyli prawo, reguła. Starożytni Grecy stosowali tę definicję do określania efektywnych zasad funkcjonowania gospodarstwa domowego.

    Koniec lat 90. obfituje w powszechne zastosowanie algorytmów uczenia maszynowego w rozwoju sieci internet i działania wyszukiwarek internetowych (Google, Yahoo, Bing).

    W 2006 ogólnodostępny program szachowy Fritz 10 pokonał mistrza świata Władimira Kramnika.

    W 2011 roku superkomputer Watson, stworzony przez IBM, wygrał w teleturnieju Jeopardy!, pokonując dwóch najlepszych graczy w historii.

    Makroekonomia - dziedzina ekonomii posługująca się wielkościami agregatowymi (zbiorczymi, dotyczącymi całej gospodarki) do badania prawidłowości występujących w gospodarce jako całości.Miniatura szachowa – partia szachów wygrana przez jedną ze stron w debiucie, czyli w kilku lub kilkunastu posunięciach. Zwycięstwo w tak wczesnym stadium partii jest zawsze skutkiem błędu przeciwnika - jego pomyłki lub nieznajomości teorii.


    Podstrony: 1 [2] [3] [4] [5]




    Warto wiedzieć że... beta

    Thomas Bayes (ur. ok. 1702 w Londynie — zm. 17 kwietnia 1761) brytyjski matematyk i duchowny prezbiteriański, znany ze sformułowania opublikowanego pośmiertnie twierdzenia Bayesa, które to zapoczątkowało dział statystyki.
    Efektywność organizacyjna - ściśle określona zdolność do strategicznego przystosowania się danego przedsiębiorstwa do zmian w otoczeniu, a także do produktywnego oraz oszczędnego wykorzystania posiadanych zasobów do realizacji przyjętej wcześniej struktury celów.
    Taksonomia (gr. taksis – układ, porządek + nomos – prawo) – poddyscyplina systematyki organizmów, nauka o zasadach i metodach klasyfikowania, w szczególności o tworzeniu i opisywaniu jednostek systematycznych (taksonów) i włączaniu ich w układ kategorii taksonomicznych.
    Sir Karl Raimund Popper (ur. 28 lipca 1902 w Wiedniu, zm. 17 września 1994 w Londynie) – filozof specjalizujący się w filozofii nauki i filozofii społeczno-politycznej. Jego system filozoficzny został przez niego samego nazwany racjonalizmem krytycznym, który on sam uważał za kontynuację filozofii Immanuela Kanta. Sformułował zasadę falsyfikowalności jako kryterium naukowości (popperyzm) oraz koncepcję społeczeństwa otwartego, będącego swoistym rozwinięciem koncepcji demokracji Johna Locke’a i Johna Stuarta Milla.
    Aksjomat (postulat, pewnik) (gr. αξιωμα [aksíoma] – godność, pewność, oczywistość) – jedno z podstawowych pojęć logiki matematycznej. Od czasów Euklidesa uznawano, że aksjomaty to zdania przyjmowane za prawdziwe, których nie dowodzi się w obrębie danej teorii matematycznej. We współczesnej matematyce definicja aksjomatu jest nieco inna:
    Dendral - system ekspertowy, opracowany w połowie lat sześćdziesiątych (ok. 1965 roku) w Stanford University, przez zespół naukowców w składzie: Bruce Buchanan, Edward Feigenbaum oraz Joshua Lederberg (laureat Nagrody Nobla w dziedzinie chemii). Opracowanie tego systemu zajęło około 15 osobo-lat. Podstawowym zadaniem tego systemu było ustalanie struktury molekularnej nieznanych chemicznych związków organicznych na podstawie analizy widm spektroskopowych. System opracowano z wykorzystaniem języka Interlisp. W systemie Dendral wykorzystano specjalny algorytm opracowany przez J. Lederberga, w celu systematycznego generowania wszystkich możliwych struktur cząsteczkowych. Wiedza w systemie Dendral była reprezentowana zarówno w sposób proceduralny (generowanie struktur), jak i w formie reguł (moduł sterowany danymi) oraz ewaluacji. System osiągnął sprawność porównywalną, a w niektórych przypadkach przewyższającą, ekspertów-ludzi. System Dendral i pochodne od niego systemy stały się typowymi narzędziami w warsztacie zawodowym chemików.
    Wiedza – termin używany powszechnie, istnieje wiele definicji tego pojęcia. Nowa Encyklopedia Powszechna definiuje wiedzę jako „ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania”.

    Reklama

    Czas generowania strony: 0.037 sek.