• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • MPEG-4



    Podstrony: [1] 2 [3] [4] [5]
    Przeczytaj także...
    Międzynarodowa Komisja Elektrotechniczna (ang. International Electrotechnical Commission, skrót IEC) to globalna organizacja opracowująca i publikująca międzynarodowe normy z zakresu technik elektrycznych i elektronicznych oraz dziedzin z nimi związanych. Służy to za podstawę norm krajowych oraz jako odniesienie dla przetargów i kontraktów międzynarodowych.Windows Media - technologia multimedialna opracowana przez firmę Microsoft. Obejmuje narzędzia Windows Media Format do kodowania i dekodowania audio i wideo, Windows Media Services do publikowania strumieniowego audio i wideo na serwerze, a także Windows Media Player do odtwarzania multimediów.
    Funkcje MPEG-4[ | edytuj kod]

    Transport[ | edytuj kod]

    W zasadzie MPEG-4 nie definiuje warstwy transportu, lecz w wielu przypadkach zostało zdefiniowane dostosowanie warstwy transportu w sposób następujący: transport przez MPEG-2 Transport Stream transport przez IP (w kooperacji z IETF, the Internet Engineering Task Force).

    DMIF (Delivery Multimedia Integration Framework) jest to interfejs pomiędzy aplikacją i transportem, który jest tak naprawdę odpowiedzialny za transport w standardzie MPEG-4. Twórcy aplikacji zgodnej ze standardem MPEG-4 nie muszą się martwić o transport pomiędzy warstwami dzięki wprowadzeniu DMIF. Konkretniej mówiąc DMIF jest niewidoczny dla twórców aplikacji.

    Międzynarodowa Organizacja Normalizacyjna, ISO (ang. International Organization for Standardization, fr. Organisation internationale de normalisation) – organizacja pozarządowa zrzeszająca krajowe organizacje normalizacyjne.DivX – stratna metoda kompresji obrazu filmowego, w nowszych wersjach zgodna z MPEG-4 część 2, pozwalającą zapisać na zwykłej płycie kompaktowej filmy o długości ok. 90 min i jakości niewiele ustępującej DVD-Video. Wykorzystywana także do przesyłania filmów przez Internet.

    System[ | edytuj kod]

    MPEG-4 definiuje zestaw zaawansowanych algorytmów kompresji audio i informacji wizualnej. Strumienie danych podstawowych (ES - Elementary Streams), które wynikają z procesu kodowania mogą być przekazywane lub przechowywane oddzielnie, i muszą mieć możliwość odtworzenia tak aby po stronie odbiorcy ukazać aktualną prezentację multimedialną.

    Windows Media Audio (WMA) - format kompresji dźwięku stworzony przez Microsoft. W zamierzeniach producenta ma konkurować z formatem MP3.Kompresja danych (ang. data compression) – polega na zmianie sposobu zapisu informacji tak, aby zmniejszyć redundancję i tym samym objętość zbioru. Innymi słowy chodzi o wyrażenie tego samego zestawu informacji, lecz za pomocą mniejszej liczby bitów.

    Część systemów MPEG-4 zajmuje się opisem relacji pomiędzy elementami audio-wizualnymi. Ten związek jest opisany w dwóch głównych poziomach.

    Binary Format Scenes (BIFS) opisuje czasowo-przestrzenne układy scen. Widzowie mogą mieć możliwość interakcji z obiektami, np. przez przekształcenie ich w scenie lub zmieniając ich własny punkt widzenia w wirtualnym środowisku 3D. Opis sceny stanowi bogaty zbiór węzłów dla operatorów kompozycji 2-D i 3-D oraz grafiki. Object Descriptors (ODs) określają związek między podstawowymi strumieniami (ES) odnoszącymi się do poszczególnych obiektów ODs, jak również podają dodatkowe informacje, takie jak np. adres URL, niezbędne do uzyskania dostępu do strumienia podstawowego.

    MPEG-2 – grupa standardów stratnej kompresji ruchomych obrazów i dźwięku zatwierdzona przez MPEG (ang. Moving Picture Experts Group) w 1994 roku. Od roku 1995 jest zatwierdzonym standardem ISO/IEC nr 13818.MPEG-3 - określenie grupy standardów kodowania dźwięku i obrazu zatwierdzonym przez grupę MPEG (Moving Picture Experts Group).

    Inne informacje dotyczące systemu MPEG-4:

  • Standardowy format plików wspiera wymianę treści MPEG-4.
  • Wspierana interaktywność, ogólny model zdarzeń uruchamiania lub kierowania działaniami użytkowników.
  • Stosowana jest Java (MPEG-J), aby móc wysyłać zapytania do terminala, wspierane jest środowisko Javy, istnieje również silnik aplikacji Javy - MPEGlets.
  • Narzędzie do przeplatania wielu strumieni w jeden strumień - FlexMux.
  • Narzędzie do przechowywania danych MPEG-4 w pliku (MPEG-4 Format "MP4").
  • Interfejsy do różnych aspektów terminal i sieci, w postaci Java API (MPEGJ) niezależności warstwy transportu.
  • Reprezentacja mający obsługa wielu języków, czcionek i wybór stylu, możliwość synchronizacji.
  • Audio[ | edytuj kod]

    Kodek audio MPEG-4 umożliwia szeroki zakres zastosowań. W szczególności wspiera wysoce wydajną reprezentację obiektów audio składających się z:

    AVI (ang. Audio Video Interleave) to kontener danych audiowizualnych. Został wprowadzony w roku 1992 przez firmę Microsoft jako element strategii przystosowania systemu Windows do obsługi multimediów, stanowiący część technologii Video for Windows.Dystrybucja – obejmuje wszelkie czynności związane z pokonywaniem przestrzennych, czasowych, ilościowych i asortymentowych różnic występujących między sferą produkcji i sferą konsumpcji.

    Ogólne sygnały audio:

    MPEG-4 posiada ogólne kodowania audio, począwszy od bardzo niskiej prędkości transmisji do wysokiej jakości, zastosowane przez przekształcenie technik kodowania. Funkcjonalności obejmują szeroki zakres strumienia bitów i przepustowości. Rozpoczyna się od strumienia bitów o wartości 6 kbit/s i przepustowości poniżej 4 kHz a rozciąga się na jakości transmisji od przesyłu mono(jednokanałowego) do wielokanałowego. Wysoką jakość można osiągnąć przy małych opóźnieniach. Parametry Audio Coding pozwalają na manipulację dźwiękami przy małych prędkościach.

    Matroska – kontener multimedialny, czyli format przechowywania obrazu lub dźwięku w jednym pliku. Pliki Matroska mogą zawierać (obok ścieżek audio i wideo) m.in. napisy, menu (jak w DVD) itp. Projekt powstał w roku 2003. W roku 2010 firma Google zaprezentowała format WebM, którego kontener bazuje na Matrosce.Telefon komórkowy, potocznie komórka — telefon działający w oparciu o telefonię komórkową, czyli urządzenie telekomunikacyjne umożliwiające swoim użytkownikom bezprzewodowe połączenia na obszarze złożonym z tzw. komórek.

    Sygnały mowy:

    Kodowanie mowy może być wykonane przy użyciu strumienia bitów od 2 kbit/s do 24 kbit/s przy użyciu narzędzi kodowania mowy. Niższe strumienie bitów, takie jak 1,2 kbit/s, jest możliwe przy dostępnej zmiennej wartości kodowania. Niskie opóźnienie jest możliwe dla aplikacji połączeniowych. Podczas korzystania z narzędzia HVXC, prędkość i wysokość dźwięku mogą być zmieniane przez użytkownika w czasie odtwarzania. Jeśli używane są narzędzia CELP, zmianę prędkości odtwarzania można osiągnąć za pomocą dodatkowych narzędzi do przetwarzania efektów.

    Płyta kompaktowa (ang. Compact Disc, CD-ROM – Compact Disc – Read Only Memory) — poliwęglanowy krążek z zakodowaną cyfrowo informacją do bezkontaktowego odczytu światłem lasera optycznego. Zaprojektowany w celu nagrywania i przechowywania dźwięku, przy użyciu kodowania PCM, który dzisiaj jest tylko jednym ze standardów cyfrowego zapisu dźwięku. Taką płytę nazywa się CD-Audio. Dzięki dużej jak na swoje czasy pojemności, niezawodności i niskiej cenie, dysk kompaktowy stał się popularnym medium do zapisywania danych.VRML (ang. Virtual Reality Modelling Language, początkowo — przed 1995 — znany jako Virtual Reality Markup Language, w wolnym tłumaczeniu Język Modelowania Rzeczywistości Wirtualnej) jest wolnym od tantiem standardem formatu pliku opisującym grafikę trójwymiarową (3D), interaktywną grafikę wektorową, projektowaną głównie z myślą o stronach WWW. VRML został zastąpiony przez swojego następcę Extensible 3D (X3D).

    Dźwięk syntetyczny:

    Structured Audio opisuje narzędzia (małe programy, które generują dźwięk) oraz wyniki (wejścia opisujące różne obiekty). Tymi obiektami nie są instrumenty muzyczne, lecz są to formuły matematyczne, które mogą generować dźwięki instrumentów muzycznych np. pianina, dźwięki przyrody np. spadającej wody.

    Syntetyczna mowa skalowalna:

    Zarządzanie prawami cyfrowymi (z ang. digital rights management, DRM) – oparty na mechanizmach kryptograficznych lub innych metodach ukrywania treści system zabezpieczeń mający przeciwdziałać używaniu danych w formacie elektronicznym w sposób sprzeczny z wolą ich wydawcy.MPEG (ang. Moving Picture Experts Group) - grupa robocza ISO/IEC zajmująca się rozwojem standardów kodowania audio i wideo, a także zatwierdzona przez ISO grupa powszechnie stosowanych formatów zapisu danych zawierających obraz i dźwięk.

    Kodeki TTS ze strumieniem bitów od 200 bit/s do 1,2 Kbit/s pozwalają na generowane mowy syntetycznej. Jest to sztuczna mowa ludzka.

    Wideo i obrazy[ | edytuj kod]

    Standard MPEG-4 Visual umożliwia kodowanie hybrydowe naturalnych obrazów i wideo wraz z syntetycznymi scenami (generowanymi przez komputer). Pozwala to na przykład na wirtualną obecność uczestników wideokonferencji. W tym celu standardowe narzędzia wizualne wspierają algorytmy kodowania naturalnych zdjęć i sekwencji wideo, a także narzędzia do obsługi kompresji syntetycznych grafiki 2-D i 3-D.

    Media strumieniowe – technika dostarczania informacji multimedialnej na życzenie. Najpopularniejsze media strumieniowe opierają się na transmisji skompresowanych danych multimedialnych poprzez Internet. Nie należy mylić mediów strumieniowych z multimedialnymi formatami plików (AVI).Xvid (dawniej XviD) jest biblioteką kodeków video podążającą za standardem MPEG-4, a w szczególności MPEG-4 Part 2 Advanced Simple Profile (ASP). Używa takich funkcji ASP jak b-frames, globalnych i dzielnicowych pikseli kompensacji ruchu, maskowania lumi, kwantyzacji treliażowej, H.263, MPEG i niestandardowych kwantyzacji matryc.

    Poniższe podrozdziały zawierają szczegółowy przegląd funkcjonalności narzędzi i algorytmów w standardzie MPEG-4.

    Obsługiwane formaty:

    MPEG-4 wspiera następujące formaty i strumienie bitów:

  • Strumienie bitów: zazwyczaj od 5 kbit/s, do ponad 1 Gbit/s
  • Formaty: progresywne, także filmy z przeplotem
  • Rozdzielczości: zazwyczaj od sub-QCIF do Studio-resolution (4k x 4k piksele)
  • Wydajność kompresji:

  • Dla wszystkich wartości strumieni bitów algorytmy są bardzo wydajne. Obejmuje to kompaktowe kodowania tekstury w wysokiej jakości, regulowane w zakresie dobrej jakości i z bardzo wysokim współczynnikiem kompresji.
  • Kompresja tekstur do mapowania sieci 2-D i 3-D.
  • Dowolny dostęp do funkcji umożliwiających wstawienie pauzy, przewijanie do przodu i do tyłu.
  • Funkcje zarządzania treścią:

    MPEG-1 jest standardem kompresji dźwięku i ruchomych obrazów zaproponowanym przez MPEG. Format wideo MPEG-1 używany jest na Video CD. Jakość obrazu przy zwykłej przepustowości VCD jest gorsza od tej znanej z nowych kaset VHS dobrej jakości. MPEG-1 Audio Layer 3 jest pełną nazwą popularnego formatu kompresji dźwięku, MP3.QuickTime jest techniką multimedialną rozwijaną przez firmę Apple. Program zdolny jest do odtwarzania plików w różnych formatach DV, media, tekstu, dźwięku, animacji, muzyki. Dostępny dla systemu operacyjnego Mac OS (9, 8, 7 itd), Mac OS X oraz Microsoft Windows. Zapewnia również obsługę oprogramowania takiego jak iTunes, Quick Time Player i przeglądarki internetowej Safari.
  • Oparte na treści kodowania obrazów i wideo pozwalają na oddzielne dekodowanie i rekonstrukcje dowolnie kształtowanych obiektów wideo.
  • Rozszerzone modyfikowanie treścią w sekwencjach wideo pozwala na zastosowanie funkcji, takich jak zniekształcenie, przekształcanie syntetycznego lub naturalnego tekstu, tekstury, grafiki i wideo.
  • Przykładem jest odwzorowanie tekstu, tzn tekst jest wyświetlany na wierzchu filmu i porusza się wraz z obiektem obrazu, w tym samym kierunku.
  • Skalowalność tekstur, obrazów i wideo:

    MPEG-7 - standard opisu treści multimedialnych. W odróżnieniu do MPEG-1, MPEG-2 czy MPEG-4 nie jest standardem kodowania ruchomego obrazu lub dźwięku.3GP jest multimedialnym kontenerem zdefiniowanym przez 3GPP dla użytku telefonii 3G. Jest to uproszczona wersja MPEG-4 Part 14 (MP4). Pliki 3GP mają rozszerzenie .3gp lub .3g2.
  • Skalowalność złożoności kodowania pozwala na różną złożoność generowania strumieni bitów ważnych i istotnych dla danej tekstury, zdjęcia lub filmu wideo.
  • Skalowalność złożoności dekodowania pozwala na dekodowanie strumienia bitów danej tekstury, obrazu lub wideo przez dekodery o różnym stopniu złożoności. Zrekonstruowanie jakości, odnosi się do złożoności używanego dekodera. Może to oznaczać, że dekoder o mniejszej mocy może dekodować tylko część strumieni bitów.
  • Skalowalność przestrzenna pozwala na dekodowanie podzbioru całego strumienia bitów generowanych przez koder do rekonstrukcji i wyświetlania obiektów tekstury, obrazu i wideo o obniżonej rozdzielczości przestrzennej.
  • Czasowa skalowalność pozwala na dekodowanie podzbiorów całego strumienia bitów generowanego przez koder do rekonstrukcji i wyświetlania wideo w czasie obniżonej rozdzielczości. Obsługiwane są maksymalnie trzy poziomy.
  • Kodowanie kształtu i kanału alfa:

  • Kodowanie kształtu wspomaga opisanie i składanie konwencjonalnych obrazów jak również dowolnych kształtów wideo. Aplikacje, które korzystają z map kształtów binarnych są reprezentacją treści obiektu dla baz danych obrazu, interaktywnych gier i animacji. Mapa binarna alfa określa, czy piksel należy do obiektu. Wartość piksela może być ustawiona na "on" lub "off".
  • Płaszczyzna alfa określa "przejrzystość" obiektu, która nie zawsze jest jednolita i może różnić się w obiekcie, np. krawędzie są bardziej przejrzyste niż właściwa zawartość. Wielopoziomowe mapy alfa są często wykorzystywane do mieszania różnych warstw sekwencji obrazów. Inne aplikacje, które korzystają z map alfa binarne związane z obrazów opartych na treści oświadczenia obrazu dla baz danych obrazu, interaktywnych gier i animacji.
  • Odporność na błędy:

    Elastyczne dostosowanie do występowania błędów pozwala na szeroki dostęp do zdjęć i wideo, oraz przesyłania mediów w szerokim zakresie. Jest to możliwe, dzięki funkcjonowaniu algorytmów kompresji obrazów i wideo w środowiskach narażonych na błąd niskiej jakości (tj. mniej niż 64 Kb/s). Istnieją narzędzia, które są odpowiednie do używania standardu przy paśmie o ograniczonej przepustowości i są one odporne na błąd dostępu do sieci.

    Animacja twarzy i ciała:

    Narzędzia animacji twarzy i ciała w standardzie MPEG-4 umożliwiają wysyłanie parametrów, które definiują, kalibrują i animują syntetyczne twarze i ciała. Modele te same w sobie nie są standardem MPEG-4, jedynie te parametry należą do standardu.

    Narzędzia obejmują:

  • Definicje i kodowanie parametrów animacji twarzy i ciała
  • Cechy punktów pozycji i kierunków, ożywiające twarz i ciało
  • Wirtualne usta odwzorowujące ruchy prawdziwych ust podczas mowy
  • Parametry i definicje ruchów ciała i twarzy
  • Charakterystyki personalne
  • Kodowanie tekstury twarzy
  • Wersje MPEG-4[ | edytuj kod]

    Wersja pierwsza standardu MPEG-4 została przyjęta przez MPEG w grudniu 1998 r., wersja druga została wdrożona w grudniu 1999 roku. Dużo narzędzi zostało dodanych w kolejnych zmianach standardu, które mogłyby zostać zakwalifikowane jako wersje, lecz ciężko sprecyzować ich odrębność jako wersje standardu. Rozróżnianie wersji nie jest ważne i jako tako potrzebne, dużo bardziej potrzeba wiedzieć o tym jak się dzielą profile. Wersje wszystkich głównych części standardu MPEG-4 (systemy, Audio, Video, DMIF) zostały zsynchronizowane, po tym, jak poszczególne części rozwijały się swoimi własnymi drogami.

    Nowsze wersje warstwy systemu są zawsze kompatybilne z wcześniejszymi wersjami. W zakresie systemu, dźwięku i wizualnym, nowe wersje dodają nowe profile, ale nie zmieniają dotychczas istniejących. W rzeczywistości jest to bardzo ważne, że istniejące systemy zawsze będą zgodne, ponieważ starsze profile nigdy nie będą zmienione.




    Podstrony: [1] 2 [3] [4] [5]



    w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Reklama

    Czas generowania strony: 0.033 sek.