„Űrkommunikáció - ZH kvíz” változatai közötti eltérés

Nincs szerkesztési összefoglaló
Nincs szerkesztési összefoglaló
28. sor: 28. sor:
# Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
# Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
# Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
# Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
== Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II) ==
{{Kvízkérdés|típus=több|válasz=1,2,3,4}}
# az algoritmus első lépéseként meghatározzuk a kódszavak hosszát.
# az algoritmus második lépésére egy lehetséges lejárás az úgynevezett lexikográfiai módszer.
# az algoritmus második lépésére egy lehetséges lejárás az úgynevezett kumulatív valószínűség módszere.
# fix hosszú forrásszavakat változó hosszú kódszavakká kódolunk.
== A bináris aritmetikai kód dekódolható, ha ==
{{Kvízkérdés|típus=több|válasz=1}}
# a forrás szimbólumkészletét (a forrás-ABC-t) kiegészítjük egy megfelelően választott valószínűségű "STOP" szimbólummal, ami a kódolandó forrásszimbólum-sorozat végét jelzi.
# a szimbólumok egy adott hosszúságú sorozatát kódoljuk mindig egy kódszóba.
# azonos hosszúságú kódszavakat állítunk elő, azaz a szimbólumsorozat kódolását akkor hagyjuk abba, ha egy adott kettedestört-hosszat elértünk.
# mindig két forrásszimbólumot kódolunk, mivel a kód bináris.
== Egy diszkrét valószínűségi változó <math>X</math> esetén ==
{{Kvízkérdés|típus=több|válasz=3}}
# az <math>X_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 1</math>.
# az <math>x_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 0</math>.
# a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 0</math>.
# a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 1</math>.
== Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát <math>(X_1, X_2, ..., X_k)</math> tekintve, ha a forrás ==
{{Kvízkérdés|típus=több|válasz=1,3,4}}
# memóriamentes (DMS), akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia k növelésével szigorúan monoton nő.
# memóriamentes (DMS), akkor a <math>H(X_k|X_1, X_2,....., X_{k-1})</math> feltételes entrópia k növelésével szigorúan monoton csökkenő.
# memóriával rendelkezik, akkor a <math>H(X_k|X_1, X_2,..., X_{k-1})</math> feltételes entrópia k növelésével monoton csökkenő.
# memóriával rendelkezik, akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia kisebb, mint memóriamentes (DMS) esetben.
== Két diszkrét valószínűségi változó, <math>X</math> és <math>Y</math> esetén ==
{{Kvízkérdés|típus=több|válasz=1}}
# ha <math>p(x_i) < p(y_j)</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül nagyobb, mint <math>y_j</math> eseményé.
# ha <math>x_i < y_j</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül kisebb, mint <math>y_j</math> eseményé.
# ha <math>X</math> egyenletes eloszlású és <math>Y</math> ettől eltérő eloszlású, akkor <math>H(X) < H(Y)</math>.
# az azonos értékű események <math>(x_i = y_j)</math> információ tartama felétlenül azonos.