Informatyka

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania
Informatyka zajmuje się teoretycznymi podstawami informacji, algorytmami i architekturami układów ją przetwarzających oraz praktycznymi technikami ich stosowania.

Informatyka (niem. informatik, ang. computer science, computing, computer engineering, IT, ICT) – nauka ścisła oraz techniczna zajmująca się przetwarzaniem informacji, w tym również technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informacje.. Zajmuje się rozwiązywaniem problemów obliczeniowych, opisem procesów algorytmicznych oraz tworzeniem programów komputerowych i częściowo sprzętu komputerowego (z wyłączeniem zagadnień materialnych i energetycznych). Informatyka początkowo stanowiła część matematyki, z czasem wyodrębniła się do oddzielnej dyscypliny. W języku polskim termin „informatyka” zaproponował w październiku 1968 Romuald Marczyński (w Zakopanem, na ogólnopolskiej konferencji w wykładzie zatytułowanym "Informatyka czyli maszyny matematyczne i przetwarzenie informacji"), na wzór francuskiego informatique i niemieckiego Informatik.

Mikrokontroler (mikrokomputer jednoukładowy skrót ang. MCU lub μC) – scalony system mikroprocesorowy, zrealizowany w postaci pojedynczego układu scalonego zawierającego jednostkę centralną (CPU), pamięć RAM oraz na ogół pamięć programu i rozbudowane układy wejścia-wyjścia.Teoria grafów to dział matematyki i informatyki zajmujący się badaniem własności grafów. Informatyka rozwija także algorytmy wyznaczające pewne właściwości grafów. Algorytmy te stosuje się do rozwiązywania wielu zadań praktycznych, często w dziedzinach na pozór nie związanych z grafami.

Spis treści

  • 1 Etymologia
  • 2 Przegląd dyscyplin informatycznych
  • 2.1 Informatyka teoretyczna
  • 2.1.1 Algorytmika. Algorytmy i struktury danych
  • 2.1.2 Teoria obliczeń. Języki, automaty, złożoność
  • 2.1.3 Teoria informacji i kodowania
  • 2.1.4 Informatyka kwantowa
  • 2.1.5 Teoria języków programowania, typów, kompilacji
  • 2.2 Inżynieria komputerowa
  • 2.2.1 Logika obliczeniowa i technika cyfrowa
  • 2.2.2 Architektura i organizacja komputerów
  • 2.2.3 Przetwarzanie równoległe i rozproszone
  • 2.2.4 Programowanie niskopoziomowe
  • 2.2.5 Sieci komputerowe
  • 2.2.6 Systemy operacyjne
  • 2.3 Informatyka praktyczna
  • 2.3.1 Grafika komputerowa
  • 2.3.2 Inżynieria oprogramowania
  • 2.3.3 Cyberbezpieczeństwo i kryptologia
  • 2.3.4 Bazy danych, eksploracja danych, danologia
  • 2.4 Systemy i technologie komputerowe
  • 2.4.1 Sztuczna inteligencja
  • 2.4.2 Systemy wbudowane i obliczenia czasu rzeczywistego
  • 2.4.3 Widzenie komputerowe i rozpoznawanie wzorców
  • 2.4.4 Przetwarzanie obrazów i mowy
  • 2.4.5 Gry komputerowe i symulatory
  • 2.4.6 Interfejsy i interakcje człowiek-komputer
  • 2.4.7 Technologie webowe, mobilne i multimedia
  • 2.5 Informatyka stosowana
  • 2.5.1 Informatyka w biologii, chemii i kognitywistyce
  • 2.5.2 Dalsze zastosowania
  • 3 Edukacja
  • 3.1 Szkoła podstawowa, liceum i technikum
  • 3.2 Studia wyższe
  • 4 Zobacz też
  • 5 Przypisy
  • Etymologia[ | edytuj kod]

    Termin informatics nie mógł zostać wprowadzony do słownictwa amerykańskiego z uwagi na problemy prawne - istniało tam przedsiębiorstwo o firmie Informatics Inc(ang.), co zablokowało chęć zmiany nazwy ACM na Society for Informatics. Wówczas popularny był już tam termin computer science – dosłownie: „nauka o komputerze” – co może być mylące stąd spotykał się często z krytyką środowisk akademickich. Proponowano wiele alternatywnych nazw m.in. Computer Studies, Computics, Computing Science, Computation Science, Information engineering, Information Technology. Association for Computing Machinery będące najważniejszą organizacją branżową przyjął termin computing na nazwę ogólnej dyscypliny. Częściowo powrócono jednak później do computer science ze względu że termin ten się silnie zakorzenił. Współcześnie określenie computing odnosi na całość dyscypliny, a computer science to jej część w której obowiązuje rygor naukowy, podczas gdy informatyka techniczna skupia się na aspektach praktycznych i traktowana jest jako nauka inżynierska. W informatyce technicznej można wyróżnić szereg specjalności, takich jak inżynieria komputerowa (computer engineering, technische Informatik) związana z tworzeniem sprzętu komputerowego i oprogramowania wbudowanego, technologia informacyjna (information technology), współcześnie najczęściej spotykana w tworzeniu oprogramowania dla zastosowań biznesowych, inżynieria oprogramowania (software engineering), odnosząca się ogólnie do programowania, lecz ściśle związana z zarządzaniem procesem wytwarzania oprogramowania. SE i IT są czasem na wzór niemiecki zbiorczo nazywane informatyką praktyczną (niem. praktische Informatik).

    Informatyka afektywna – dział informatyki, zajmuje się metodami i narzędziami rozpoznawania, analizy, interpretacji i symulacji stanów emocjonalnych użytkowników komputerów.Graficzny interfejs użytkownika, środowisko graficzne (ang. Graphical User Interface, GUI) – ogólne określenie sposobu prezentacji informacji przez komputer oraz interakcji z użytkownikiem, polegające na rysowaniu i obsługiwaniu widżetów.

    Przetwarzanie informacji jest różnie interpretowane, przez co istnieją różne definicje informatyki. Uniwersytet Edynburski definiuje ją jako naukę o systemach obliczeniowych, w której centralną notacją jest transformacja informacji.. Według Petera J. Denninga podstawowym pytaniem leżącym u podstaw informatyki jest: „Co można zautomatyzować?”. Według teorii Stuarta C. Shapiro, informatyka jest nauką przyrodniczą, która bada procedury. Adam Olszewski wyróżnił pięć rodzajów obiektów, które są przedmiotem zainteresowania informatyki: funkcje efektywnie obliczalne, algorytmy, programy komputerowe, realizacje i maszyny. W roku 2005, w ACM Computing Curricula przedstawiono następujący opis:

    Sztuczne Życie (AL z ang. Artificial Life) jest interdyscyplinarnym kierunkiem badań, zorientowanym na zrozumienie i wykorzystanie istoty życia. Pomysłodawcą i ojcem chrzestnym tego podejścia był amerykański matematyk i informatyk Christopher Langton, który zaproponował je w 1986 roku.TensorFlow – otwartoźródłowa biblioteka programistyczna napisana przez Google Brain Team. Wykorzystywana jest w uczeniu maszynowym i głębokich sieciach neuronowych. Została wydana 9 listopada 2015 roku.
    .mw-parser-output div.cytat{display:table;border:1px solid #aaa;padding:0;margin-top:0.5em;margin-bottom:0.8em;background:#f9f9f9}.mw-parser-output div.cytat>blockquote{margin:0;padding:0.5em 1.5em}.mw-parser-output div.cytat-zrodlo{text-align:right;padding:0 1em 0.5em 1.5em}.mw-parser-output div.cytat-zrodlo::before{content:"— "}.mw-parser-output div.cytat.środek{margin-left:auto;margin-right:auto}.mw-parser-output div.cytat.prawy{float:right;clear:right;margin-left:1.4em}.mw-parser-output div.cytat.lewy{float:left;clear:left;margin-right:1.4em}.mw-parser-output div.cytat.prawy:not([style]),.mw-parser-output div.cytat.lewy:not([style]){max-width:25em}

    Ogólnie rzecz biorąc, możemy zdefiniować informatykę (computing) jako jakąkolwiek zorientowaną na cel działalność wymagającą, korzystającą z lub tworzącą maszyny obliczeniowe. W związku z tym informatyka obejmuje projektowanie i budowanie systemów sprzętu i oprogramowania do szerokiego zakresu celów; przetwarzanie, strukturyzację i zarządzanie różnymi rodzajami informacji; obliczeniowe badania naukowe; sprawianie, by systemy komputerowe zachowywały się inteligentnie; (...) Lista jest praktycznie nieskończona, a możliwości są ogromne.

    RISC (Reduced Instruction Set Computer) – nazwa architektury mikroprocesorów, która została przedstawiona pod koniec lat 70. w teoretycznych pracach na uniwersytecie Berkeley oraz w wynikach badań Johna Cocke z Thomas J. Watson Research Center.Teoria złożoności obliczeniowej – dział teorii obliczeń, którego głównym celem jest określanie ilości zasobów potrzebnych do rozwiązania problemów obliczeniowych. Rozważanymi zasobami są takie wielkości jak czas, pamięć lub liczba procesorów.




    Podstrony: 1 [2] [3]




    Warto wiedzieć że... beta

    Smurf attack – odmiana ataku sieciowego o nazwie ping flood, który polega na przeciążeniu łącza atakowanego systemu pakietami ping.
    Algorytm zachłanny (ang. greedy algorithm) – algorytm, który w celu wyznaczenia rozwiązania w każdym kroku dokonuje zachłannego, tj. najlepiej rokującego w danym momencie wyboru rozwiązania częściowego. Innymi słowy algorytm zachłanny nie dokonuje oceny czy w kolejnych krokach jest sens wykonywać dane działanie, dokonuje decyzji lokalnie optymalnej, dokonuje on wyboru wydającego się w danej chwili najlepszym, kontynuując rozwiązanie podproblemu wynikającego z podjętej decyzji. Typowe zadanie rozwiązywane metodą zachłanną ma charakter optymalizacyjny. W dziedzinie sztucznej inteligencji zachłanna odmiana przeszukiwania lokalnego jest nazywana "podchodzeniem pod wzgórze".
    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.
    Języki interpretowane to języki programowania, które zazwyczaj implementowane są w formie interpretera, a nie kompilatora. Teoretycznie każdy język może być kompilowany i interpretowany, dlatego rozróżnienie to polega na najczęściej stosowanych rozwiązaniach, a nie zależy od cech samego języka. Program w języku interpretowanym nie jest kompilowany, lecz jest przechowywany w postaci kodu źródłowego i dopiero podczas uruchomienia wczytywany, interpretowany i wykonywany przez interpreter języka.
    OSI (ang. Open Systems Interconnection) lub Model OSI (pełna nazwa ISO OSI RM, ang. ISO OSI Reference Model – model odniesienia łączenia systemów otwartych) – standard zdefiniowany przez ISO oraz ITU-T opisujący strukturę komunikacji sieciowej.
    Kryptologia (z gr. κρυπτός – kryptos – "ukryty" i λόγος – logos – "słowo") – dziedzina wiedzy o przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem. Współcześnie kryptologia jest uznawana za gałąź zarówno matematyki, jak i informatyki; ponadto jest blisko związana z teorią informacji, inżynierią oraz bezpieczeństwem komputerowym.
    Teledetekcja (ang. remote sensing) to rodzaj badań wykonywanych z pewnej odległości (zdalnie) przy wykorzystaniu specjalistycznych sensorów (czujników). Badania teledetekcyjne można wykonywać z samolotów, przestrzeni kosmicznej lub z powierzchni ziemi. Metody teledetekcyjne dzielą się na aktywne i pasywne. W aktywnej teledetekcji sygnał jest wysłany z instrumentu, a po odbiciu od obiektu, odbierany i analizowany. Przykładami aktywnej teledetekcji jest aktywny radar, w którym wysyłane są mikrofale, lidar – w tym przypadku wysyłane jest światło, czy sodar lub sonar – wtedy wysyłane są fale akustyczne. Pasywnymi metodami teledetekcji są metody oparte na analizie sygnałów emitowanych przez obserwowany obiekt. Zdjęcie fotograficzne jest przykładem teledetekcji pasywnej. Terminu teledetekcja używa się zwykle przy pomiarach wykonywanych z pokładu satelitów czy też samolotów, ale dotyczy on także wszelkich innych pomiarów wykonywanych zdalnie. Techniki teledetekcyjne używają tzw. metod odwrotnych do oceny interesujących własności. Dla przykładu, ocena ilości deszczu z chmur może być dokonana na podstawie intensywności sygnału z radaru meteorologicznego. Dziedzina ta rozwija się bardzo intensywnie głównie na potrzeby robotyki (orientacja przestrzenna), bezpieczeństwa (obserwacja poprzez nieprzeźroczyste przeszkody np. ściany - (ang. through-the-wall detection)) i zdalna identyfikacja osób, przemysłu samochodowego (wykrywanie zagrożeń na drodze) (ang. automotive radar), logistyki (zdalna identyfikacja towarów), monitoringu środowiska naturalnego, medycynie i wielu innych dziedzin.

    Reklama