• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Kodowanie transformatowe



    Podstrony: 1 [2] [3] [4]
    Przeczytaj także...
    Kodowanie Huffmana (ang. Huffman coding) – jedna z najprostszych i łatwych w implementacji metod kompresji bezstratnej. Została opracowana w 1952 roku przez Amerykanina Davida Huffmana.Przekształcenie liniowe – w algebrze liniowej funkcja między przestrzeniami liniowymi (nad ustalonym ciałem) zachowująca ich strukturę; z punktu widzenia algebry jest to zatem homomorfizm (a z punktu widzenia teorii kategorii – morfizm kategorii) przestrzeni liniowych nad ustalonym ciałem. W przypadku przestrzeni skończonego wymiaru z ustalonymi bazami do opisu przekształceń liniowych między nimi stosuje się zwykle macierze (zob. wybór baz).

    Kodowanie transformatowe (inne nazwy: kodowanie transformacyjne, kodowanie transformujące) – algorytm kompresji stratnej sygnałów cyfrowych (obrazu, dźwięku, video).

    Spis treści

  • 1 Zasada działania
  • 2 Dekodowanie
  • 3 Zniekształcenia
  • 4 Zastosowania
  • 5 Zobacz też
  • 6 Bibliografia
  • 7 Linki zewnętrzne
  • Zasada działania[]

    Podstawowa idea polega na przekształceniu danych z reprezentacji oryginalnej (opisującej wartości próbek w dziedzinie czasu lub przestrzeni) do innej dziedziny przy pomocy transformacji liniowej (na przykład transformacji kosinusowej), gdzie następuje właściwe kodowanie. Dane w tej nowej dziedzinie reprezentowane są przez współczynniki transformaty, które charakteryzuje koncentracja energii (największa część sygnału zawarta jest w niewielkiej liczbie współczynników, pozostałe współczynniki mają niewielkie wartości lub wręcz są równe zero). Tą dziedziną jest najczęściej dziedzina częstotliwości reprezentowana przez wektory próbek funkcji sinusoidalnych lub kosinusoidalnych, lecz może być nią również dziedzina oparta na innym zbiorze dyskretnych wektorów ortogonalnych, zarówno uniwersalnych (np. transformacja falkowa, która wykorzystuje funkcje falkowe) jak i adaptacyjnie dobranych do sygnału (np. transformacja Karhunena-Loève, która wykorzystuje wektory własne macierzy autokowariancji sygnału).

    Transformacja falkowa jest przekształceniem podobnym do transformacji Fouriera. Oba przekształcenia opierają się na wykorzystaniu operacji iloczynu skalarnego badanego sygnału s(t) i pozostałej części, zwanej "jądrem przekształcenia”. Główna różnica między tymi przekształceniami to właśnie owe jądro.Analiza głównych składowych (ang. Principal Component Analysis, PCA) – jedna ze statystycznych metod analizy czynnikowej. Zbiór danych składający się z N obserwacji, z których każda obejmuje K zmiennych, można interpretować jako chmurę N punktów w przestrzeni K-wymiarowej. Celem PCA jest taki obrót układu współrzędnych, aby maksymalizować w pierwszej kolejności wariancję pierwszej współrzędnej, następnie wariancję drugiej współrzędnej, itd.. Tak przekształcone wartości współrzędnych nazywane są ładunkami wygenerowanych czynników (składowych głównych). W ten sposób konstruowana jest nowa przestrzeń obserwacji, w której najwięcej zmienności wyjaśniają początkowe czynniki.

    Sama transformacja nie zmniejsza ilości danych, choć w pewnych warunkach redukuje ich korelację oraz entropię. Właściwa kompresja stratna odbywa się poprzez kwantowanie współczynników, które zmniejsza liczbę bitów potrzebną na ich reprezentację oraz opcjonalne kodowanie entropijne (np. kodowanie Huffmana), które w bezstratny sposób reprezentuje poszczególne skwantowane współczynniki ciągami binarnymi o zmiennej długości (im częściej występująca wartość tym krótsza sekwencja bitów).

    Wektory i wartości własne – wielkości opisujące endomorfizm danej przestrzeni liniowej; wektor własny przekształcenia można rozumieć jako wektor, którego kierunek nie ulega zmianie po przekształceniu go endomorfizmem; wartość własna odpowiadająca temu wektorowi to skala podobieństwa tych wektorów.Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na pojedynczą wiadomość ze źródła informacji. Innymi słowy jest to średnia ważona ilości informacji niesionej przez pojedynczą wiadomość, gdzie wagami są prawdopodobieństwa nadania poszczególnych wiadomości.

    Większość popularnych transformacji oferuje największą wydajność kodowania, gdy sygnał jest stacjonarny, ponieważ baza funkcji ortogonalnych składa się z funkcji o charakterze stacjonarnym (np. DCT oparta jest na funkcjach kosinusowych o stałej częstotliwości). Z kolei sygnały poddawane kompresji (mowa, muzyka, obraz) są najczęściej niestacjonarne. Zastosowanie pojedynczej transformacji dla wszystkich próbek sygnału jest również bardzo złożone obliczeniowo. Dlatego popularnym rozwiązaniem jest podział sygnału na krótkie segmenty lub bloki i zastosowanie transformacji dla każdego bloku z osobna (np. w obrazie stosuje się bloki o wymiarach 8x8 pikseli, ale także 4x4 i 16x16, w dźwięku stosuje się bloki 1152 lub 2048 próbek). Jednak niezależne kodowanie każdego bloku może powodować powstanie dokuczliwego efektu blokowego, co szczególnie przy danych audio jest nieakceptowalne i wymusza stosowanie algorytmów typu MDCT.

    Kompresja fraktalna to system kompresji stratnej opierający się na wykorzystaniu fraktali do reprezentacji danych. Używany jest prawie wyłącznie do kompresji obrazów. Najpopularniejszym zestawem fraktali są systemy funkcji iterowanych (IFS – Iterated Functions System).MPEG-2 – grupa standardów stratnej kompresji ruchomych obrazów i dźwięku zatwierdzona przez MPEG (ang. Moving Picture Experts Group) w 1994 roku. Od roku 1995 jest zatwierdzonym standardem ISO/IEC nr 13818.


    Podstrony: 1 [2] [3] [4]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Warto wiedzieć że... beta

    Kompresja falkowa jest algorytmem wydajnej, ale stratnej kompresji. Oparta jest o transformatę falkową. Głównie kojarzona jest z kompresją grafiki, chociaż rodzaj danych, które można kompresować, nie jest zdeterminowany.
    Próbkowanie (dyskretyzacja, kwantowanie w czasie) - proces tworzenia sygnału dyskretnego, reprezentującego sygnał ciągły za pomocą ciągu wartości nazywanych próbkami. Zwykle jest jednym z etapów przetwarzania sygnału analogowego na cyfrowy.
    Ortogonalność (z gr. ortho – prosto, prosty, gonia – kąt) – uogólnienie pojęcia prostopadłości znanego z geometrii euklidesowej na abstrakcyjne przestrzenie z określonym iloczynem skalarnym, jak np. przestrzenie unitarne (w tym przestrzenie Hilberta) czy przestrzenie ortogonalne. Pojęcie ortogonalności bywa uogólnianie również na przestrzenie unormowane w których nie ma naturalnej struktury iloczynu skalarnego (ortogonalność w sensie Pitagorasa, ortogonalność w sensie Jamesa, ortogonalność w sensie Birkhoffa, T-ortogonalność).
    Kompresja stratna — metoda zmniejszania liczby bitów potrzebnych do wyrażenia danej informacji, które nie dają gwarancji, że odtworzona informacja będzie identyczna z oryginałem. Dla niektórych danych algorytm kompresji stratnej może odtworzyć informację w sposób identyczny.
    Autokowariancja – wielkość równa kowariancji pomiędzy procesem stochastycznym a tym samym procesem przesuniętym o pewien odcinek czasu.
    JPEG (wym. dżej-peg lub jot-peg) – metoda kompresji statycznych obrazów rastrowych, przeznaczony głównie do stratnego zapisu obrazów naturalnych (pejzaży, portretów itp.), charakteryzujących się płynnymi przejściami barw oraz brakiem lub małą ilością ostrych krawędzi i drobnych detali.
    Falki (z ang. wavelet) – rodziny funkcji zbioru liczb rzeczywistych w zbiór liczb rzeczywistych, z których każda jest wyprowadzona z funkcji-matki (z tzw. funkcji macierzystej) za pomocą przesunięcia i skalowania:

    Reklama

    Czas generowania strony: 0.03 sek.