• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Informatyka



    Podstrony: 1 [2] [3] [4] [5]
    Przeczytaj także...
    Perl – interpretowany język programowania autorstwa Larry’ego Walla początkowo przeznaczony głównie do pracy z danymi tekstowymi, obecnie używany do wielu innych zastosowań. Wzorowany na takich językach jak C, skryptowe: sed, awk i sh oraz na wielu innych.Teleportacja kwantowa (QT z ang. quantum teleportation) – w kwantowej teorii informacji technika pozwalająca na przeniesienie stanu kwantowego na dowolną odległość z wykorzystaniem stanu splątanego.
    Cywilizacja którą zbudujemy, nie będzie cywilizacją materialną, symbolizowaną przez ogromne konstrukcje, ale będzie cywilizacją informacyjną - opartą na niewidocznych dla oka systemach, mocy ukrytej w miniaturowych elementach i potędze ludzkiego rozumu. ~Masuda Yoneji, Computopia

    Informatyka (niem. informatik, ang. computing) – nauka ścisła i techniczna o strukturze i działaniu naturalnych i inżynierskich systemów obliczeniowych. Zajmuje się badaniem natury obliczeń, transferem i transformacją informacji oraz tworzeniem systemów złożonych ze sprzętu, programów i sieci.

    Strumieniowa baza danych to baza danych, w której dane są przedstawione w postaci zbioru strumieni danych. System zarządzania taką bazą nazywany jest strumieniowym systemem zarządzania danymi (DSMS - ang. Data Stream Management System).Zestaw znaków to zestawienie znaków pisma z odpowiadającymi im kodami liczbowymi. Tabelę taką można następnie wykorzystać do przekształcenia tekstu na postać cyfrową, w szczególności w komputerze.

    Informatyka nie posiada jednej ogólnie akceptowanej definicji. Uniwersytet Edynburski definiuje ją jako naukę o budowie, zachowaniu i interakcji naturalnych i tworzonych systemów obliczeniowych, włączając w to aspekty obliczeniowe, kognitywne i społeczne. Według Petera J. Denninga podstawowym pytaniem leżącym u podstaw informatyki jest: „Co można zautomatyzować?”. Według teorii Stuarta C. Shapiro, informatyka jest nauką przyrodniczą, która bada procedury. Adam Olszewski wyróżnił pięć rodzajów obiektów, które są przedmiotem zainteresowania informatyki: funkcje efektywnie obliczalne, algorytmy, programy komputerowe, realizacje i maszyny. Informatyka jest nauką o przekazywaniu, przetwarzaniu i przechowywaniu informacji, oraz związanym z tym zarządzaniem, sterowaniem, komunikacją, pamięcią i percepcją. Zajmuje się projektowaniem, wykorzystywaniem i analizą algorytmów, struktur danych, protokołów, procesów, maszyn i systemów to automatyzujących składających się ze sprzętu, programów i ich sieci które wchodzą w interakcje z otoczeniem lub między sobą. Bada także przepływ i przetwarzanie informacji w organizmach i systemach społecznych, symulując je i wzorując się na nich. Obejmuje teorię i praktykę tworzenia warstwy oprogramowania (ang. software) jak i warstwy sprzętowej (ang. hardware). Za początek informatyki uznaje się powstanie w 35 tys. roku p.n.e pierwszych liczydeł zrobionych z kawałków kości z odpowiednią ilością nacięć (ang. tally stick). Współcześnie rozmiana informatyka narodziła się w III Rzeszy, gdzie Konrad Zuse skonstruował pierwszy na świecie komputer. Stworzył on też pierwszy język programowania, a następnie w swojej książce Rechnender Raum (pol. Przestrzeń Obliczeniowa) przedstawił hipotezę że działanie całego wszechświata może być zasymulowane.

    Mikrokontroler (mikrokomputer jednoukładowy skrót ang. MCU lub μC) – scalony system mikroprocesorowy, zrealizowany w postaci pojedynczego układu scalonego zawierającego jednostkę centralną (CPU), pamięć RAM oraz na ogół pamięć programu i rozbudowane układy wejścia-wyjścia.Teoria grafów to dział matematyki i informatyki zajmujący się badaniem własności grafów. Informatyka rozwija także algorytmy wyznaczające pewne właściwości grafów. Algorytmy te stosuje się do rozwiązywania wielu zadań praktycznych, często w dziedzinach na pozór nie związanych z grafami.

    Spis treści

  • 1 Etymologia
  • 2 Przegląd dyscyplin informatycznych
  • 3 Informatyka teoretyczna
  • 3.1 Algorytmika. Algorytmy i struktury danych
  • 3.2 Teoria obliczeń, złożoności i automatów
  • 3.3 Teoria informacji, sygnałów i kodowania
  • 3.4 Informatyka kwantowa
  • 3.5 Teoria kompilacji i języków programowania
  • 4 Informatyka techniczna
  • 4.1 Technika cyfrowa. Układy logiczne
  • 4.2 Architektura i organizacja komputerów
  • 4.3 Przetwarzanie równoległe i rozproszone
  • 4.4 Programowanie niskopoziomowe
  • 4.5 Sieci komputerowe
  • 4.6 Systemy operacyjne
  • 5 Informatyka praktyczna
  • 5.1 Programowanie wysokopoziomowe
  • 5.2 Grafika komputerowa
  • 5.3 Inżynieria oprogramowania
  • 5.4 Inżynieria komputerowa
  • 5.5 Cyberbezpieczeństwo i kryptologia
  • 6 Systemy i technologie informatyczne
  • 6.1 Gry i symulacje komputerowe
  • 6.2 Systemy wbudowane i mobilne
  • 6.3 Bazy danych i aplikacje internetowe
  • 6.4 Wirtualizacja, emulacja, chmury obliczeniowe
  • 6.5 Interfejsy i interakcje człowiek-komputer
  • 7 Informatyka stosowana
  • 7.1 Sztuczna inteligencja, robotyka i sztuczne życie
  • 7.2 Rozpoznawanie wzorców. Percepcja komputerowa
  • 7.3 Cyfrowe przetwarzanie sygnałów
  • 7.4 Data Science. Data mining i Big data
  • 7.5 Bioinformatyka i inżynieria obliczeniowa
  • 7.6 Dalsze zastosowania i specjalizacje
  • 8 Edukacja
  • 8.1 Szkoła podstawowa, liceum i technikum
  • 8.2 Studia wyższe
  • 9 Zobacz też
  • 10 Przypisy
  • Etymologia[ | edytuj kod]

    W języku polskim termin „informatyka” zaproponował w październiku 1968 Romuald Marczyński (w Zakopanem, na ogólnopolskiej konferencji poświęconej maszynom matematycznym), na wzór francuskiego informatique i niemieckiego Informatik.

    Informatyka afektywna – dział informatyki, zajmuje się metodami i narzędziami rozpoznawania, analizy, interpretacji i symulacji stanów emocjonalnych użytkowników komputerów.Graficzny interfejs użytkownika, środowisko graficzne (ang. Graphical User Interface, GUI) – ogólne określenie sposobu prezentacji informacji przez komputer oraz interakcji z użytkownikiem, polegające na rysowaniu i obsługiwaniu widżetów.

    Określenie „informatyka” nie ma jednoznacznego odpowiednika w języku angielskim. W USA wyraz ten najczęściej jest oddawany określeniem computer science – dosłownie: „nauka o komputerze” – co bywa postrzegane jako źródło potencjalnych nieporozumień i spotyka się z krytyką środowisk akademickich. Stąd proponowanych jest wiele alternatywnych nazw. Jedną z nich jest computics zaproponowane przez Petera J.Denninga. Association for Computing Machinery będące najważniejszą organizacją informatyczną przyjmuje termin computing na nazwę ogólnej dyscyliny. Termin informatics nie mógł zostać wprowadzony do słownictwa amerykańskiego z uwagi na problemy prawne - istniała tam firma Informatics Inc, co zablokowało cheć zmiany nazwy ACM na Society for Inofrmatics.

    Sztuczne Życie (AL z ang. Artificial Life) jest interdyscyplinarnym kierunkiem badań, zorientowanym na zrozumienie i wykorzystanie istoty życia. Pomysłodawcą i ojcem chrzestnym tego podejścia był amerykański matematyk i informatyk Christopher Langton, który zaproponował je w 1986 roku.Nauki ekonomiczne – jedna z dziedzin naukowych w Polsce zgodnie z Uchwałą Centralnej Komisji do spraw Stopnii i Tytułów z dnia 23 czerwca 2003 roku w sprawie określania dziedzin nauki i dziedzin sztuki oraz dyscyplin naukowych i artystycznych (M.P. z 2003 r. Nr 40, poz. 586).

    Określenie computer science (CS) odnosi się przede wszystkim do informatyki rozumianej jako nauka ścisła, podczas gdy informatyka techniczna skupiająca się tworzeniu systemów komputerowych jest najczęściej tłumaczona jako computer engineering (CE), podobnie jak niemiecka technische Informatik rozumiana jako nauka inżynierska. Natomiast określenie information technology (IT) jest najczęściej spotykane w kontekście zastosowań informatyki w gospodarce. Określenie software engineering (SE) bywa odnoszone ogólnie programowania, lecz jest także używane w kontekście zarządzania procesem wytwarzania oprogramowania. SE i IT są czasem na wzór niemiecki zbiorczo nazywane informatyką praktyczną (niem. praktische Informatik).

    TensorFlow – otwartoźródłowa biblioteka programistyczna napisana przez Google Brain Team. Wykorzystywana jest w uczeniu maszynowym i głębokich sieciach neuronowych. Została wydana 9 listopada 2015 roku. Format otwarty UML (ang. Unified Modeling Language, czyli Zunifikowany Język Modelowania) – język formalny wykorzystywany do modelowania różnego rodzaju systemów, stworzony przez Grady Boocha, Jamesa Rumbaugha oraz Ivara Jackobsona, obecnie rozwijany przez Object Management Group.

    Przegląd dyscyplin informatycznych[ | edytuj kod]

    .mw-parser-output div.cytat{display:table;padding:0}.mw-parser-output div.cytat.box{margin-top:0.5em;margin-bottom:0.8em;border:1px solid #aaa;background:#f9f9f9}.mw-parser-output div.cytat>blockquote{margin:0;padding:0.5em 1.5em}.mw-parser-output div.cytat-zrodlo{text-align:right;padding:0 1em 0.5em 1.5em}.mw-parser-output div.cytat-zrodlo::before{content:"— "}.mw-parser-output div.cytat.cudzysłów>blockquote{display:table}.mw-parser-output div.cytat.klasyczny::before{float:left;content:"";background-image:url("//upload.wikimedia.org/wikipedia/commons/thumb/b/b9/Quote-alpha.png/20px-Quote-alpha.png");background-repeat:no-repeat;background-position:top right;width:2em;height:2em;margin:0.5em 0.5em 0.5em 0.5em}.mw-parser-output div.cytat.klasyczny>blockquote{border:1px solid #ccc;background:white;color:#333;padding-left:3em}.mw-parser-output div.cytat.cudzysłów>blockquote::before{display:table-cell;color:rgb(178,183,242);font:bold 40px"Times New Roman",serif;vertical-align:bottom;content:"„";padding-right:0.1em}.mw-parser-output div.cytat.cudzysłów>blockquote::after{display:table-cell;color:rgb(178,183,242);font:bold 40px"Times New Roman",serif;vertical-align:top;content:"”";padding-left:0.1em}.mw-parser-output div.cytat.środek{margin:0 auto}.mw-parser-output div.cytat.prawy{float:right;clear:right;margin-left:1.4em}.mw-parser-output div.cytat.lewy{float:left;clear:left;margin-right:1.4em}.mw-parser-output div.cytat.prawy:not([style]),.mw-parser-output div.cytat.lewy:not([style]){max-width:25em}

    Informatyka jest tylko o komputerach, tak jak astronomia tylko o teleskopach.

    Synteza mowy – dział przetwarzania mowy polegający na mechanicznej zamianie tekstu zapisanego w postaci znakowej na wypowiedź (mowę) w postaci dźwiękowej. Maszynę lub program komputerowy zamieniający tekst na mowę określa się mianem syntezatora mowy. W zależności od syntezatora, możemy uzyskać bardzo dokładną wymowę także słów nietypowych, literowanie różnych skrótów, odczytywanie liczb w tym również ułamków oraz odczytywanie dat poprzez dekomponowanie liczb. Syntezatory mowy mają wiele zastosowań. Pozwalają na zautomatyzowanie informowania bądź alarmowania użytkownika, są pomocne przy nauce języków obcych oraz tłumaczeniach, mogą także np. odczytywać dokumenty pisane alfabetem Brailla.Kod znak-moduł to sposób zapisu liczb całkowitych oznaczany jako ZM (bądź SM – ang. sign-magnitude). Wszystkie bity poza najstarszym mają takie samo znaczenie jak w naturalnym kodzie binarnym. Wyróżniony bit w tym zapisie jest bitem znaku. Jeżeli ma on wartość 0 to dana liczba jest nieujemna, jeżeli 1, to liczba jest niedodatnia. W związku z tym występują dwie reprezentacje zera: +0 (00000000ZM) i -0 (10000000ZM). Jednocześnie wpływa to na zakres liczb jaki można przedstawić używając kodowania ZM na n bitach:
    Michael Fellows,

    Jako dyscyplina informatyka obejmuje szereg tematów, od teoretycznych badań nad algorytmami i teorią obliczalności po praktyczne zagadnienia związane z implementowaniem systemów obliczeniowych zarówno w warstwie sprzętowej, jak i oprogramowaniu. CSAB, dawniej zwana Computing Sciences Accreditation Board – w skład której wchodzą przedstawiciele Association for Computing Machinery (ACM) oraz IEEE Computer Society (IEEE CS) – identyfikuje cztery obszary, które uważa za kluczowe dla informatyki: teoria obliczeń, algorytmy i struktury danych, języki i metodologia programowania oraz budowa i architektura komputerów. Oprócz tych czterech podstawowych obszarów, CSAB identyfikuje również takie dziedziny, jak inżynieria oprogramowania, sztuczna inteligencja, sieci komputerowe i komunikacja, systemy baz danych, obliczenia równoległe, obliczenia rozproszone, interakcja człowiek–komputer, grafika komputerowa, systemy operacyjne oraz metody numeryczne i symboliczne jako będące ważnymi dziedzinami informatyki. W roku 2012 celem ujednolicenia programów studiów informatycznych ACM wyróżnił pięć podstawowych specjalizacji: informatyka techniczna (ang. computer engineering, CE), informatyka czysta (ang. computer science, CS), systemy informacyjne (ang. information systems, IS), technologia informatyczna (ang. information technology, IT), inżynieria oprogramowania (ang. software engineering, SE). W 2020 ACM dołożył do zalecanych specjalizacji Cybersecurity oraz Data Science. W Niemczech zwyczajowo dzięli się natomiast na informatykę teoretyczną, techniczną, praktyczną i stosowaną.

    Szybka transformacja Fouriera (ang. FFT od Fast Fourier Transform) to algorytm liczenia dyskretnej transformaty Fouriera oraz transformaty do niej odwrotnej.RISC (Reduced Instruction Set Computer) – nazwa architektury mikroprocesorów, która została przedstawiona pod koniec lat 70. w teoretycznych pracach na uniwersytecie Berkeley oraz w wynikach badań Johna Cocke z Thomas J. Watson Research Center.
    Architektur der Informatik

    Peter J. Denning z kolei w swoim artykule o informatyce pogrupował treści w następujące działy: algorytmy i struktury danych, języki oprogramowania, architektura komputerów i oprogramowania, systemy operacyjne i sieci, inżynieria oprogramowania, bazy danych i wyszukiwanie informacji, sztuczna inteligencja i robotyka, grafika komputerowa, interakcja człowiek–komputer, symulacje komputerowe i obliczenia numeryczne, informatyka ekonomiczna, bioinformatyka. Jednocześnie dla każdego z tych obszarów zaproponował podział na trzy podejścia dotyczące strony teoretycznej, abstrakcyjnej oraz twórczej.

    Pamięć – zdolność do rejestrowania i ponownego przywoływania wrażeń zmysłowych, skojarzeń, informacji, występująca u ludzi, niektórych zwierząt i w komputerach. W każdym z tych przypadków proces zapamiętywania ma całkowicie inne podłoże fizyczne oraz podlega badaniom naukowym w oparciu o różne zestawy pojęć.Teoria złożoności obliczeniowej – dział teorii obliczeń, którego głównym celem jest określanie ilości zasobów potrzebnych do rozwiązania problemów obliczeniowych. Rozważanymi zasobami są takie wielkości jak czas, pamięć lub liczba procesorów.


    Podstrony: 1 [2] [3] [4] [5]




    Warto wiedzieć że... beta

    Algorytm zachłanny (ang. greedy algorithm) – algorytm, który w celu wyznaczenia rozwiązania w każdym kroku dokonuje zachłannego, tj. najlepiej rokującego w danym momencie wyboru rozwiązania częściowego. Innymi słowy algorytm zachłanny nie dokonuje oceny czy w kolejnych krokach jest sens wykonywać dane działanie, dokonuje decyzji lokalnie optymalnej, dokonuje on wyboru wydającego się w danej chwili najlepszym, kontynuując rozwiązanie podproblemu wynikającego z podjętej decyzji. Typowe zadanie rozwiązywane metodą zachłanną ma charakter optymalizacyjny. W dziedzinie sztucznej inteligencji zachłanna odmiana przeszukiwania lokalnego jest nazywana "podchodzeniem pod wzgórze".
    Uczenie maszynowe albo uczenie się maszyn, systemy uczące się (ang. machine learning) – stosunkowo młoda i szybko rozwijająca się dziedzina wchodząca w skład nauk zajmujących się problematyką SI (patrz sztuczna inteligencja).
    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.
    Języki interpretowane to języki programowania, które zazwyczaj implementowane są w formie interpretera, a nie kompilatora. Teoretycznie każdy język może być kompilowany i interpretowany, dlatego rozróżnienie to polega na najczęściej stosowanych rozwiązaniach, a nie zależy od cech samego języka. Program w języku interpretowanym nie jest kompilowany, lecz jest przechowywany w postaci kodu źródłowego i dopiero podczas uruchomienia wczytywany, interpretowany i wykonywany przez interpreter języka.
    OSI (ang. Open Systems Interconnection) lub Model OSI (pełna nazwa ISO OSI RM, ang. ISO OSI Reference Model – model odniesienia łączenia systemów otwartych) – standard zdefiniowany przez ISO oraz ITU-T opisujący strukturę komunikacji sieciowej.
    Kryptologia (z gr. κρυπτός – kryptos – "ukryty" i λόγος – logos – "słowo") – dziedzina wiedzy o przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem. Współcześnie kryptologia jest uznawana za gałąź zarówno matematyki, jak i informatyki; ponadto jest blisko związana z teorią informacji, inżynierią oraz bezpieczeństwem komputerowym.
    Renderowanie (od ang. rendering) – przedstawienie informacji zawartych w dokumencie elektronicznym w formie najbardziej właściwej dla danego środowiska (np. wizualnie, w tym na ekranie i w druku, czy dźwiękowo). Mechanizm odpowiedzialny w programie komputerowym za renderowanie nazywa się mechanizmem renderującym (ang. rendering engine, czasem silnik renderujący) lub rendererem (z ang.).

    Reklama

    Czas generowania strony: 0.383 sek.