Űrkommunikáció - ZH kvíz
A lap korábbi változatát látod, amilyen Püspöki Péter (vitalap | szerkesztései) 2023. június 22., 23:00-kor történt szerkesztése után volt.
Tartalomjegyzék
- 1 Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség
- 2 Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén
- 3 Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy [math]X[/math] kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz
- 4 Egy diszkrét valószínűségi változó [math]X[/math] esetén
- 5 Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- 6 Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság)
- 7 Egy stohasztikus folyamat erős stacionaritásának szükséges, de nem feltétlenül elégséges feltétele, hogy
- 8 A bináris aritmetikai kód
- 9 Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- 10 Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II)
- 11 A bináris aritmetikai kód dekódolható, ha
- 12 Egy diszkrét valószínűségi változó [math]X[/math] esetén
- 13 Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát [math](X_1, X_2, ..., X_k)[/math] tekintve, ha a forrás
- 14 Két diszkrét valószínűségi változó, [math]X[/math] és [math]Y[/math] esetén
Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség
- szigorúan kisebb feltétel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
- szigorúan egyenlőséggel teljesül, az prefix komplett.
- szigorúan kisebb feltétellel teljesül, az prefix redundáns.
- szigorúan egyenlőséggel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén
- a dekódolhatóság egyik szükséges feltétele az üzenetszavak és a kódszavak kölcsönösen egyértelmű összerendelése.
- a dekódolhatóság egyik elégséges feltétele, hogy semelyik kódszó sem lehet folytatása egy másik érvényes kódszónak az forrásszavak és a kódszavak kölcsönösen egyértelmű Összerendelése mellett.
- a kódolás célja a redundancia csökkentése, azaz a tömörítés.
- mindig olyan fix hosszú kódszavakat állítunk elő, amik hosszabbak az üzenetszavaknál, hogy ne lépjen fel információvesztés.
Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy [math]X[/math] kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz
- minden esetben nagyobb X entrópiájánál.
- nagyobb vagy egyenlő X entrópiájánál.
- egész szám lesz, ha minden esemény valószínűsége 2 valamely negatív egész hatványa.
- az X lehetséges értékeinek számával megegyező, ha az nagyobb vagy egyenlő, mint X entrópiája.
Egy diszkrét valószínűségi változó [math]X[/math] esetén
- az entrópia [math]H(X)[/math] normális eloszlás esetén maximális, azaz [math]H(X) = H_0(X)[/math]
- az entrópia [math]H(X)[/math] alsó és felső korlátja is létezik.
- az entrópia [math]H(X)[/math] egyenletes eloszlás esetén maximális, azaz [math]H(X) = H_0(X)[/math].
- a redundancia [math]R(X) = H_0(X) − H(X)[/math].
Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
- Huffman kódolást forráskiterjesztéssel alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva csak a forrásszimbólumok elsőrendű eloszlásának ismerete szükséges.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság)
- csak akkor határozható meg ha X és Y eloszlása megegyezik
- D(P(X)) || P(Y)) a P(X) és P(Y) eloszlások “hasonlóságának mértéke
- D(P(X,Y) || P(Y,X)) = 0 bármely P(X) és P(Y) eloszlás esetén
- D(P(X,Y) || P(X)P(Y)) = 0, ha X és Y függetlenek
Egy stohasztikus folyamat erős stacionaritásának szükséges, de nem feltétlenül elégséges feltétele, hogy
- elsőrendű valószínűségi függvénye az időben állandó legyen.
- másodrendű valószínűségi függvénye a [math]\Delta[/math]t = 5 szekundum időbeni eltolásra invariáns legyen.
- k-adrendű valószínűségi eloszlásfüggvénye bármely [math]\Delta[/math]t időbeni eltolásra invariáns legyen.
- várható értéke időfüggetlen legyen.
A bináris aritmetikai kód
- a [0, 1) intervallumon a legnagyobb valószínüségű forrásszimbólumhoz a legkisebb részintervallumot rendeli.
- egy "STOP" szimbólummal végződő forrásszimbólum-sorozathoz a hozzá tartozó részintervallumba eső legrövidebb kettedes tört kettedes pont utáni bitjeit rendeli, mint kód.
- igényli az elsőrendű forráseloszlás a-priori ismeretét.
- a "STOP" Szimbólumon kívül további járulékos biteket (redundanciát) fűz a forrás bitjeihez.
Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- Huffman kódolást forráskiterjesztéssel alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva csak a forrásszimbólumok elsőrendű eloszlásának ismerete szükséges.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
- Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II)
- az algoritmus első lépéseként meghatározzuk a kódszavak hosszát.
- az algoritmus második lépésére egy lehetséges lejárás az úgynevezett lexikográfiai módszer.
- az algoritmus második lépésére egy lehetséges lejárás az úgynevezett kumulatív valószínűség módszere.
- fix hosszú forrásszavakat változó hosszú kódszavakká kódolunk.
A bináris aritmetikai kód dekódolható, ha
- a forrás szimbólumkészletét (a forrás-ABC-t) kiegészítjük egy megfelelően választott valószínűségű "STOP" szimbólummal, ami a kódolandó forrásszimbólum-sorozat végét jelzi.
- a szimbólumok egy adott hosszúságú sorozatát kódoljuk mindig egy kódszóba.
- azonos hosszúságú kódszavakat állítunk elő, azaz a szimbólumsorozat kódolását akkor hagyjuk abba, ha egy adott kettedestört-hosszat elértünk.
- mindig két forrásszimbólumot kódolunk, mivel a kód bináris.
Egy diszkrét valószínűségi változó [math]X[/math] esetén
- az [math]X_i = 1[/math] esemény információ tartama feltétlenül [math]I(x_i) = 1[/math].
- az [math]x_i = 1[/math] esemény információ tartama feltétlenül [math]I(x_i) = 0[/math].
- a [math]p(x_i) = 1[/math] valószínűségű esemény információ tartama feltétlenül [math]I(x_i) = 0[/math].
- a [math]p(x_i) = 1[/math] valószínűségű esemény információ tartama feltétlenül [math]I(x_i) = 1[/math].
Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát [math](X_1, X_2, ..., X_k)[/math] tekintve, ha a forrás
- memóriamentes (DMS), akkor a [math]H(X_1, X_2, ..., X_k)[/math] együttes entrópia k növelésével szigorúan monoton nő.
- memóriamentes (DMS), akkor a [math]H(X_k|X_1, X_2,....., X_{k-1})[/math] feltételes entrópia k növelésével szigorúan monoton csökkenő.
- memóriával rendelkezik, akkor a [math]H(X_k|X_1, X_2,..., X_{k-1})[/math] feltételes entrópia k növelésével monoton csökkenő.
- memóriával rendelkezik, akkor a [math]H(X_1, X_2, ..., X_k)[/math] együttes entrópia kisebb, mint memóriamentes (DMS) esetben.
Két diszkrét valószínűségi változó, [math]X[/math] és [math]Y[/math] esetén
- ha [math]p(x_i) \lt p(y_j)[/math], akkor [math]x_i[/math] esemény információ tartama feltétlenül nagyobb, mint [math]y_j[/math] eseményé.
- ha [math]x_i \lt y_j[/math], akkor [math]x_i[/math] esemény információ tartama feltétlenül kisebb, mint [math]y_j[/math] eseményé.
- ha [math]X[/math] egyenletes eloszlású és [math]Y[/math] ettől eltérő eloszlású, akkor [math]H(X) \lt H(Y)[/math].
- az azonos értékű események [math](x_i = y_j)[/math] információ tartama felétlenül azonos.