• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Kodowanie korekcyjne

    Przeczytaj także...
    Sygnał cyfrowy – sygnał, którego dziedzina i zbiór wartości są dyskretne. Jego odpowiednikiem o ciągłej dziedzinie i ciągłym zbiorze wartości jest sygnał analogowy. Znaczenie tego terminu może odnosić się do:Claude Elwood Shannon (urodzony 30 kwietnia 1916 - zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera) - amerykański matematyk i inżynier, profesor MIT. Jeden z twórców teorii informacji. Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.
    Transmisja – proces przesyłania dowolnej wiadomości lub ogólnie danych między nadawcą (nadajnikiem) a odbiorcą (odbiornikiem) zapisanej określonym, zrozumiałym dla obu stron kodem i po określonej drodze. Do transmisji mogą być wykorzystane media transmisyjne przewodowe lub bezprzewodowe.

    Kodowanie korekcyjne lub kodowanie korygujące (ang. ECC - error correction coding, FEC - forward error correction) – technika dodawania nadmiarowości do transmitowanych cyfrowo informacji. Umożliwia całkowitą lub częściową detekcję i korekcję błędów powstałych w wyniku zakłóceń. Dzięki temu nie ma potrzeby wykorzystywania kanału zwrotnego, do poinformowania nadawcy o błędzie i konieczności ponownego przesłania informacji. Kodowanie korekcyjne jest więc wykorzystywane wtedy, gdy retransmisja jest kosztowna, kłopotliwa lub niemożliwa, np. ze względu na ograniczenia czasowe.

    Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności).Redundancja (łac. redundantia – powódź, nadmiar, zbytek), inaczej nadmiarowość w stosunku do tego, co konieczne lub zwykłe. Określenie może odnosić się zarówno do nadmiaru zbędnego lub szkodliwego, niecelowo zużywającego zasoby, jak i do pożądanego zabezpieczenia na wypadek uszkodzenia części systemu.

    Podstawy teoretyczne[]

    W 1948 Claude Shannon opublikował "Matematyczną teorię komunikacji", w której zawarł fundamentalny dla opisu transmisji danych wzór opisujący przepustowość kanału (twierdzenie Shannona-Hartleya): ,

    gdzie:

    Prawdopodobieństwo – ogólne określenie jednego z wielu pojęć służących modelowaniu doświadczenia losowego poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (w zastosowaniach często wyrażanych procentowo), wskazujących szanse ich zajścia. W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę nieprzewidywalności.Suma kontrolna (ang. checksum) – liczba uzyskana w wyniku sumowania lub wykonania innych operacji matematycznych na przesyłanych danych, przesłana razem z danymi i służąca do sprawdzania poprawności przetwarzanych danych.
    C – przepustowość (pojemność) kanału w bitach na sekundę, W – szerokość pasma w hercach, S/N – stosunek mocy sygnału do mocy szumów w skali liniowej.

    Z teorii Shannona wynika, że w kanale transmisyjnym przy danym poziomie szumów można z dowolnie niskim prawdopodobieństwem błędu przesyłać informację co najwyżej z przepływnością równą przepustowości C. Nie wystarczy jednak spowolnić transmisji, aby pozbyć się błędów. Aby osiągnąć niskie prawdopodobieństwo błędu konieczne jest przesyłanie informacji w formie zakodowanej, to znaczy zawierającej pewną nadmiarowość. Szybkość przesyłania bitów kodu (lub ogólniej - symboli) musi być większa od przepustowości C, ale ilość niesionej przez nie informacji zakodowanej (mniejsza od ilość bitów ze względu na nadmiarowość kodu) może być co najwyżej równa C. Shannon udowodnił, że istnieją kody, które zapewniają takie maksymalne wykorzystanie kanału transmisyjnego, ale teoria ta nie dawała praktycznych wskazówek jak skonstruować takie kody, których kodowanie i dekodowanie byłoby fizycznie realizowalne.

    Kodowanie korekcyjne Reeda-Solomona (ang. Reed–Solomon error correction) – rodzaj systemu korekcji błędów (ECC). W 1960 r. Irving S. Reed i Gustave Solomon opublikowali artykuł "Polynomial Codes over Certain Finite Fields" w Journal of the Society For Industrial and Applied Mathematic. W artykule tym opisali klasę kodów korekcyjnych, które obecnie nazywane są kodami Reeda-Solomona (ang. Reed–Solomon codes, R-S codes).Herc (Hz) – jednostka miary częstotliwości w układzie SI (jednostka pochodna układu SI) i w wielu innych, np. CGS, MKS i MKSA. Definiuje się ją jako liczbę cykli na sekundę.

    Zobacz też[]

  • kod splotowy
  • kod Hamminga
  • kodowanie korekcyjne Reeda-Solomona
  • suma kontrolna
  • CRC
  • Przypisy

    1. Claude Elwood Shannon: A Mathematical Theory of Communication. W: Reprinted with corrections from The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948 [on-line]. [dostęp 2016-01-30].
    2. Jan Chojcan, Adam Dustor: Transmisja danych z widmem rozproszonym. W: Zeszyty naukowe Politechniki Śląskiej, 2000, seria: Elektronika z.12, nr kol. 1492 [on-line]. [dostęp 2016-01-29]. s. 201 - 219.
    Skala liniowa – rodzaj skali pomiarowej, w której wielkości fizyczne są przekształcone za pomocą funkcji liniowej.W telekomunikacji kod splotowy (ang. convolutional codes) jest typem kodu korekcyjnego. Kody splotowe zwykle są określane przez trzy parametry: (n,k,m). Ideą kodowania splotowego jest przekształcenie wejściowego k-bitowego ciągu informacyjnego na n-bitowy ciąg wyjściowy. Sprawność kodu splotowego wynosi k/n (n ≥ k). Dodatkowym parametrem jest m, który oznacza liczbę przerzutników „D” w rejestrze układu kodującego albo ilość boksów, z których ten rejestr się składa. Można również wyróżnić wielkość L, która oznacza ograniczoną długość kodu i jest definiowana jako: L=k(m-1). Ograniczona długość L reprezentuje liczbę bitów w pamięci kodera wpływających na generowanie n bitów wyjściowych.



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Moc – skalarna wielkość fizyczna określająca pracę wykonaną w jednostce czasu przez układ fizyczny. Z definicji, moc określa wzór:
    Szum elektryczny - każdy niepożądany sygnał, który występuje na wyjściu lub w jakiejś części układu elektronicznego. Szum ogranicza minimalną wartość sygnału użytecznego, który będzie do rozróżnienia na wyjściu układu, ogranicza zatem czułość na wejściu układu. Oprócz szumów powstających wewnątrz układu może szum dostawać się też z zewnątrz w postaci zakłóceń.
    Cykliczny kod nadmiarowy, inaczej: cykliczna kontrola nadmiarowa (ang.) Cyclic Redundancy Check, CRC – jest to system sum kontrolnych wykorzystywany do wykrywania przypadkowych błędów pojawiających się podczas przesyłania i magazynowania danych binarnych.
    Przepustowość (pojemność kanału, ang. throughput) w telekomunikacji i informatyce – maksymalna ilość informacji (mierzonej w bitach), jaka może być przesyłana przez dany kanał telekomunikacyjny lub łącze w jednostce czasu (mierzonej w sekundach).
    Bit na sekundę (ang. bps – bit per second) – jednostka natężenia strumienia danych w medium transmisyjnym (np. pomiędzy dwoma komputerami) oraz jednostka przepustowości, czyli maksymalnej ilości informacji, jaka może być przesyłana przez dany kanał telekomunikacyjny w jednostce czasu, oznaczana b/s bądź bps.

    Reklama

    Czas generowania strony: 0.095 sek.