• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Informatyka



    Podstrony: 1 [2] [3] [4] [5]
    Przeczytaj także...
    Perl – interpretowany język programowania autorstwa Larry’ego Walla początkowo przeznaczony głównie do pracy z danymi tekstowymi, obecnie używany do wielu innych zastosowań. Wzorowany na takich językach jak C, skryptowe: sed, awk i sh oraz na wielu innych.Teleportacja kwantowa (QT z ang. quantum teleportation) – w kwantowej teorii informacji technika pozwalająca na przeniesienie stanu kwantowego na dowolną odległość z wykorzystaniem stanu splątanego.

    Informatyka (niem. informatik, ang. computing) – nauka ścisła i techniczna o przetwarzaniu informacji oraz naturalnych i inżynierskich systemach obliczeniowych. Zajmuje się badaniem natury i metodologii obliczeń, opisem procesów algorytmicznych oraz tworzeniem sprzętu i programów komputerowych.

    Istnieją różne próby definicji informatyki. Uniwersytet Edynburski definiuje ją jako naukę o budowie, zachowaniu i interakcji naturalnych i tworzonych systemów obliczeniowych, włączając w to aspekty obliczeniowe, kognitywne i społeczne. Według Petera J. Denninga podstawowym pytaniem leżącym u podstaw informatyki jest: „Co można zautomatyzować?”. Według teorii Stuarta C. Shapiro, informatyka jest nauką przyrodniczą, która bada procedury. Adam Olszewski wyróżnił pięć rodzajów obiektów, które są przedmiotem zainteresowania informatyki: funkcje efektywnie obliczalne, algorytmy, programy komputerowe, realizacje i maszyny. Informatyka jest nauką o transferze i transformacji informacji, oraz związanymi z tym algorytmicznymi procesami oraz systemami przetwarzającymi informacje składającymi się ze sprzętu i programów komputerowych. Bada także przepływ i przetwarzanie informacji w organizmach i systemach społecznych, symulując je i wzorując się na nich. Obejmuje teorię i praktykę tworzenia warstwy oprogramowania (ang. software) jak i warstwy sprzętowej (ang. hardware). Pierwsze algorytmy obliczeniowe powstały w okresie antyku, a pierwszy mechaniczny kalkulator w 1623. Współczesna informatyka powstała w Niemczech, gdzie Konrad Zuse skonstruował pierwszy na świecie komputer. Stworzył on też pierwszy język programowania, a w swojej książce Rechnender Raum (pol. Przestrzeń Obliczeniowa) przedstawił hipotezę że działanie wszechświata może być zasymulowane. W roku 2005, w ACM Computing Curricula zdefiniowano informatykę jako

    Strumieniowa baza danych to baza danych, w której dane są przedstawione w postaci zbioru strumieni danych. System zarządzania taką bazą nazywany jest strumieniowym systemem zarządzania danymi (DSMS - ang. Data Stream Management System).Zestaw znaków to zestawienie znaków pisma z odpowiadającymi im kodami liczbowymi. Tabelę taką można następnie wykorzystać do przekształcenia tekstu na postać cyfrową, w szczególności w komputerze.
    .mw-parser-output div.cytat{display:table;padding:0}.mw-parser-output div.cytat.box{margin-top:0.5em;margin-bottom:0.8em;border:1px solid #aaa;background:#f9f9f9}.mw-parser-output div.cytat>blockquote{margin:0;padding:0.5em 1.5em}.mw-parser-output div.cytat-zrodlo{text-align:right;padding:0 1em 0.5em 1.5em}.mw-parser-output div.cytat-zrodlo::before{content:"— "}.mw-parser-output div.cytat.cudzysłów>blockquote{display:table}.mw-parser-output div.cytat.klasyczny::before{float:left;content:"";background-image:url("//upload.wikimedia.org/wikipedia/commons/thumb/b/b9/Quote-alpha.png/20px-Quote-alpha.png");background-repeat:no-repeat;background-position:top right;width:2em;height:2em;margin:0.5em 0.5em 0.5em 0.5em}.mw-parser-output div.cytat.klasyczny>blockquote{border:1px solid #ccc;background:white;color:#333;padding-left:3em}.mw-parser-output div.cytat.cudzysłów>blockquote::before{display:table-cell;color:rgb(178,183,242);font:bold 40px"Times New Roman",serif;vertical-align:bottom;content:"„";padding-right:0.1em}.mw-parser-output div.cytat.cudzysłów>blockquote::after{display:table-cell;color:rgb(178,183,242);font:bold 40px"Times New Roman",serif;vertical-align:top;content:"”";padding-left:0.1em}.mw-parser-output div.cytat.środek{margin:0 auto}.mw-parser-output div.cytat.prawy{float:right;clear:right;margin-left:1.4em}.mw-parser-output div.cytat.lewy{float:left;clear:left;margin-right:1.4em}.mw-parser-output div.cytat.prawy:not([style]),.mw-parser-output div.cytat.lewy:not([style]){max-width:25em}

    Ogólnie rzecz biorąc, możemy zdefiniować informatykę jako jakąkolwiek zorientowaną na cel działalność wymagającą, korzystającą z lub tworzącą komputery. W związku z tym informatyka obejmuje projektowanie i budowanie sprzętu i systemów oprogramowania do szerokiego zakresu celów; przetwarzanie, strukturyzację i zarządzanie różnymi rodzajami informacji; wykonywanie badań naukowych przy użyciu komputerów; sprawianie, by systemy komputerowe zachowywały się inteligentnie; tworzenie i używanie mediów komunikacyjnych i rozrywkowych; znajdowanie i gromadzenie informacji związanych z jakimkolwiek określonym celem itd. Lista jest praktycznie nieskończona, a możliwości są ogromne.

    Mikrokontroler (mikrokomputer jednoukładowy skrót ang. MCU lub μC) – scalony system mikroprocesorowy, zrealizowany w postaci pojedynczego układu scalonego zawierającego jednostkę centralną (CPU), pamięć RAM oraz na ogół pamięć programu i rozbudowane układy wejścia-wyjścia.Teoria grafów to dział matematyki i informatyki zajmujący się badaniem własności grafów. Informatyka rozwija także algorytmy wyznaczające pewne właściwości grafów. Algorytmy te stosuje się do rozwiązywania wielu zadań praktycznych, często w dziedzinach na pozór nie związanych z grafami.

    Spis treści

  • 1 Etymologia
  • 2 Przegląd dyscyplin informatycznych
  • 3 Informatyka teoretyczna
  • 3.1 Algorytmika. Algorytmy i struktury danych
  • 3.2 Teoria obliczeń, złożoności i automatów
  • 3.3 Teoria informacji, sygnałów i kodowania
  • 3.4 Informatyka kwantowa
  • 3.5 Teoria języków programowania, typów, kompilacji
  • 4 Informatyka techniczna
  • 4.1 Technika cyfrowa. Układy logiczne
  • 4.2 Architektura i organizacja komputerów
  • 4.3 Przetwarzanie równoległe i rozproszone
  • 4.4 Programowanie niskopoziomowe
  • 4.5 Sieci komputerowe
  • 4.6 Systemy operacyjne
  • 5 Informatyka praktyczna
  • 5.1 Programowanie wysokopoziomowe
  • 5.2 Grafika komputerowa
  • 5.3 Inżynieria oprogramowania
  • 5.4 Inżynieria komputerowa
  • 5.5 Cyberbezpieczeństwo i kryptologia
  • 5.6 Data science, engineering, mining, big data
  • 6 Systemy i technologie komputerowe
  • 6.1 Gry i symulacje komputerowe
  • 6.2 Systemy wbudowane i mobilne
  • 6.3 Bazy danych i aplikacje internetowe
  • 6.4 Wirtualizacja, emulacja, chmury obliczeniowe
  • 6.5 Interfejsy i interakcje człowiek-komputer
  • 7 Aplikacje komputerowe
  • 7.1 Sztuczna inteligencja, robotyka i sztuczne życie
  • 7.2 Rozpoznawanie wzorców. Percepcja komputerowa
  • 7.3 Cyfrowe przetwarzanie sygnałów
  • 7.4 Bioinformatyka i chemioinformatyka
  • 7.5 Dalsze zastosowania i specjalizacje
  • 8 Edukacja
  • 8.1 Szkoła podstawowa, liceum i technikum
  • 8.2 Studia wyższe
  • 9 Zobacz też
  • 10 Przypisy
  • Etymologia[ | edytuj kod]

    W języku polskim termin „informatyka” zaproponował w październiku 1968 Romuald Marczyński (w Zakopanem, na ogólnopolskiej konferencji w wykładzie zatytułowanym "Informatyka czyli maszyny matematyczne i przetwarzenie informacji"), na wzór francuskiego informatique i niemieckiego Informatik.

    Informatyka afektywna – dział informatyki, zajmuje się metodami i narzędziami rozpoznawania, analizy, interpretacji i symulacji stanów emocjonalnych użytkowników komputerów.Graficzny interfejs użytkownika, środowisko graficzne (ang. Graphical User Interface, GUI) – ogólne określenie sposobu prezentacji informacji przez komputer oraz interakcji z użytkownikiem, polegające na rysowaniu i obsługiwaniu widżetów.

    Termin informatics nie mógł zostać wprowadzony do słownictwa amerykańskiego z uwagi na problemy prawne - istniało tam przedsiębiorstwo o firmie Informatics Inc(ang.), co zablokowało chęć zmiany nazwy ACM na Society for Informatics. Wówczas popularny był już tam termin computer science – dosłownie: „nauka o komputerze” – co bywa postrzegane jako źródło potencjalnych nieporozumień i spotyka się z krytyką środowisk akademickich. Proponowano wiele alternatywnych nazw m.in. Computer Studies, Computics, Computing Science, Information engineering, Information Technology. Association for Computing Machinery będące najważniejszą organizacją informatyczną przyjął termin computing na nazwę ogólnej dyscypliny.

    Sztuczne Życie (AL z ang. Artificial Life) jest interdyscyplinarnym kierunkiem badań, zorientowanym na zrozumienie i wykorzystanie istoty życia. Pomysłodawcą i ojcem chrzestnym tego podejścia był amerykański matematyk i informatyk Christopher Langton, który zaproponował je w 1986 roku.Nauki ekonomiczne – jedna z dziedzin naukowych w Polsce zgodnie z Uchwałą Centralnej Komisji do spraw Stopnii i Tytułów z dnia 23 czerwca 2003 roku w sprawie określania dziedzin nauki i dziedzin sztuki oraz dyscyplin naukowych i artystycznych (M.P. z 2003 r. Nr 40, poz. 586).

    Określenie computer science (CS) odnosi się przede wszystkim do informatyki rozumianej jako nauka ścisła, podczas gdy informatyka techniczna skupiająca się tworzeniu systemów komputerowych jest najczęściej tłumaczona jako computer engineering (CE), podobnie jak niemiecka technische Informatik rozumiana jako nauka inżynierska. Natomiast określenie information technology (IT) jest najczęściej spotykane w kontekście zastosowań informatyki w gospodarce. Określenie software engineering (SE) bywa odnoszone ogólnie programowania, lecz jest także używane w kontekście zarządzania procesem wytwarzania oprogramowania. SE i IT są czasem na wzór niemiecki zbiorczo nazywane informatyką praktyczną (niem. praktische Informatik).

    TensorFlow – otwartoźródłowa biblioteka programistyczna napisana przez Google Brain Team. Wykorzystywana jest w uczeniu maszynowym i głębokich sieciach neuronowych. Została wydana 9 listopada 2015 roku. Format otwarty UML (ang. Unified Modeling Language, czyli Zunifikowany Język Modelowania) – język formalny wykorzystywany do modelowania różnego rodzaju systemów, stworzony przez Grady Boocha, Jamesa Rumbaugha oraz Ivara Jackobsona, obecnie rozwijany przez Object Management Group.

    Przegląd dyscyplin informatycznych[ | edytuj kod]

    Informatyka jest tylko o komputerach, tak jak astronomia tylko o teleskopach.

    Jako dyscyplina informatyka obejmuje szereg tematów, od teoretycznych badań nad algorytmami i teorią obliczalności po praktyczne zagadnienia związane z implementowaniem systemów obliczeniowych zarówno w warstwie sprzętowej, jak i oprogramowaniu. CSAB, dawniej zwana Computing Sciences Accreditation Board – w skład której wchodzą przedstawiciele Association for Computing Machinery (ACM) oraz IEEE Computer Society (IEEE CS) – identyfikuje cztery obszary, które uważa za kluczowe dla informatyki: teoria obliczeń, algorytmy i struktury danych, języki i metodologia programowania oraz budowa i architektura komputerów. Oprócz tych czterech podstawowych obszarów, CSAB identyfikuje również takie dziedziny, jak inżynieria oprogramowania, sztuczna inteligencja, sieci komputerowe i komunikacja, systemy baz danych, obliczenia równoległe, obliczenia rozproszone, interakcja człowiek–komputer, grafika komputerowa, systemy operacyjne oraz metody numeryczne i symboliczne jako będące ważnymi dziedzinami informatyki. W roku 2012 celem ujednolicenia programów studiów informatycznych ACM wyróżnił pięć podstawowych specjalizacji: informatyka techniczna (ang. computer engineering, CE), informatyka czysta (ang. computer science, CS), systemy informacyjne (ang. information systems, IS), technologia informatyczna (ang. information technology, IT), inżynieria oprogramowania (ang. software engineering, SE). W 2020 ACM dołożył do zalecanych specjalizacji Cybersecurity oraz Data Science. W Niemczech zwyczajowo dzięli się natomiast na informatykę teoretyczną, techniczną, praktyczną i stosowaną.

    Synteza mowy – dział przetwarzania mowy polegający na mechanicznej zamianie tekstu zapisanego w postaci znakowej na wypowiedź (mowę) w postaci dźwiękowej. Maszynę lub program komputerowy zamieniający tekst na mowę określa się mianem syntezatora mowy. W zależności od syntezatora, możemy uzyskać bardzo dokładną wymowę także słów nietypowych, literowanie różnych skrótów, odczytywanie liczb w tym również ułamków oraz odczytywanie dat poprzez dekomponowanie liczb. Syntezatory mowy mają wiele zastosowań. Pozwalają na zautomatyzowanie informowania bądź alarmowania użytkownika, są pomocne przy nauce języków obcych oraz tłumaczeniach, mogą także np. odczytywać dokumenty pisane alfabetem Brailla.Kod znak-moduł to sposób zapisu liczb całkowitych oznaczany jako ZM (bądź SM – ang. sign-magnitude). Wszystkie bity poza najstarszym mają takie samo znaczenie jak w naturalnym kodzie binarnym. Wyróżniony bit w tym zapisie jest bitem znaku. Jeżeli ma on wartość 0 to dana liczba jest nieujemna, jeżeli 1, to liczba jest niedodatnia. W związku z tym występują dwie reprezentacje zera: +0 (00000000ZM) i -0 (10000000ZM). Jednocześnie wpływa to na zakres liczb jaki można przedstawić używając kodowania ZM na n bitach:
    Architektur der Informatik

    Peter J. Denning z kolei w swoim artykule o informatyce pogrupował treści w następujące działy: algorytmy i struktury danych, języki oprogramowania, architektura komputerów i oprogramowania, systemy operacyjne i sieci, inżynieria oprogramowania, bazy danych i wyszukiwanie informacji, sztuczna inteligencja i robotyka, grafika komputerowa, interakcja człowiek–komputer, symulacje komputerowe i obliczenia numeryczne, informatyka ekonomiczna, bioinformatyka. Jednocześnie dla każdego z tych obszarów zaproponował podział na trzy podejścia dotyczące strony teoretycznej, abstrakcyjnej oraz twórczej.

    Szybka transformacja Fouriera (ang. FFT od Fast Fourier Transform) to algorytm liczenia dyskretnej transformaty Fouriera oraz transformaty do niej odwrotnej.RISC (Reduced Instruction Set Computer) – nazwa architektury mikroprocesorów, która została przedstawiona pod koniec lat 70. w teoretycznych pracach na uniwersytecie Berkeley oraz w wynikach badań Johna Cocke z Thomas J. Watson Research Center.


    Podstrony: 1 [2] [3] [4] [5]




    Warto wiedzieć że... beta

    Teoria złożoności obliczeniowej – dział teorii obliczeń, którego głównym celem jest określanie ilości zasobów potrzebnych do rozwiązania problemów obliczeniowych. Rozważanymi zasobami są takie wielkości jak czas, pamięć lub liczba procesorów.
    Smurf attack – odmiana ataku sieciowego o nazwie ping flood, który polega na przeciążeniu łącza atakowanego systemu pakietami ping.
    Algorytm zachłanny (ang. greedy algorithm) – algorytm, który w celu wyznaczenia rozwiązania w każdym kroku dokonuje zachłannego, tj. najlepiej rokującego w danym momencie wyboru rozwiązania częściowego. Innymi słowy algorytm zachłanny nie dokonuje oceny czy w kolejnych krokach jest sens wykonywać dane działanie, dokonuje decyzji lokalnie optymalnej, dokonuje on wyboru wydającego się w danej chwili najlepszym, kontynuując rozwiązanie podproblemu wynikającego z podjętej decyzji. Typowe zadanie rozwiązywane metodą zachłanną ma charakter optymalizacyjny. W dziedzinie sztucznej inteligencji zachłanna odmiana przeszukiwania lokalnego jest nazywana "podchodzeniem pod wzgórze".
    Uczenie maszynowe albo uczenie się maszyn, systemy uczące się (ang. machine learning) – stosunkowo młoda i szybko rozwijająca się dziedzina wchodząca w skład nauk zajmujących się problematyką SI (patrz sztuczna inteligencja).
    Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. poprzez podanie pewnej funkcji zależnej od czasu. Mówimy, że sygnał niesie informację lub też umożliwia przepływ strumienia informacji.
    Języki interpretowane to języki programowania, które zazwyczaj implementowane są w formie interpretera, a nie kompilatora. Teoretycznie każdy język może być kompilowany i interpretowany, dlatego rozróżnienie to polega na najczęściej stosowanych rozwiązaniach, a nie zależy od cech samego języka. Program w języku interpretowanym nie jest kompilowany, lecz jest przechowywany w postaci kodu źródłowego i dopiero podczas uruchomienia wczytywany, interpretowany i wykonywany przez interpreter języka.
    OSI (ang. Open Systems Interconnection) lub Model OSI (pełna nazwa ISO OSI RM, ang. ISO OSI Reference Model – model odniesienia łączenia systemów otwartych) – standard zdefiniowany przez ISO oraz ITU-T opisujący strukturę komunikacji sieciowej.

    Reklama

    Czas generowania strony: 0.289 sek.