„Űrkommunikáció - ZH kvíz” változatai közötti eltérés
Ugrás a navigációhoz
Ugrás a kereséshez
(8 közbenső módosítás ugyanattól a szerkesztőtől nincs mutatva) | |||
1. sor: | 1. sor: | ||
{{Kvízoldal|cím=Űrkommunikáció ZH tippelős kérdések|pontozás=+}} | {{Kvízoldal|cím=Űrkommunikáció ZH tippelős kérdések|pontozás=+}} | ||
+ | |||
+ | == Digitális jelek átvitelekor az <math>M</math>-állapotú jelkészlet == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,3,4}} | ||
+ | # D dimenziószáma a jelek vektoriális leírásánál legfeljebb <math>M</math> lehet, vagyis <math>D ≤ M</math> | ||
+ | # kerül alkalmazásra, mert a frekvenciasáv takarékos felhasználásához arra kell törekedni, hogy <math>D</math> dimenziószám minél jobban megközelítse a maximumot, <math>M</math>-et. | ||
+ | # minden esetben egyértelműen megfeleltethető egy <math>D ≤ M</math> dimenziós jeltér <math>M</math>-elemű vektorkészletének. | ||
+ | # bármely jele felírható a jelteret kifeszítő ortogonális, normált (ortonormált) bázisfüggvény rendszer függvényinek lineáris kombinációjaként. | ||
+ | |||
+ | == Folytonos idejű, de <math>B</math> sávra korlátozott AWGN csatorna == | ||
+ | {{Kvízkérdés|típus=több|válasz=3,4}} | ||
+ | # kapacitása független a B sávszélességtől, hiszen a jel/zaj viszony (SNR) független a sávszélességtől. | ||
+ | # kapacitása azért csökken a B sávszélesség csökkentésével, mert a zajteljesítményszint is csökken. | ||
+ | # 0 dB jel/zaj viszony <math>(bit – SNR, E_b/E_0)</math> mellett 1 bit/sec/Hz átvitelt tesz lehetővé maximum. | ||
+ | # Gauss eloszlású bemeneti jel esetén teszi lehetővé a legtöbb információ átvitelét. | ||
+ | |||
+ | == Csak additív termikus zajjal (AWGN) terhelt csatorna esetén az optimális vevőben a legvalószínűbb szimbólum meghatározásához feltétlenül ismernünk kell többek között == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,2,4}} | ||
+ | # az összes lehetséges jelalakot (időfüggvényt) és a jelalakok a-priori adási valószínűségeit, ha nem egyenletes eloszlásúak. | ||
+ | # az összes jelalak (időfüggvény) energiáját, ha azok különbözőek. | ||
+ | # <math>N_0</math> értékét, ha a jelalakok a-priori adási valószínűségei azonosak, hiszen a jel-zaj viszony (SNR) függ a zajteljesítménytől. | ||
+ | # a jelvektorok a-priori adási valószínűségeit, ha azok különbözőek. | ||
+ | |||
+ | == <math>GF(q=p^m)</math> prím hatvány méretű véges test felett értelmezett lineáris blokk kódok polinomos ábrázoláskor <math>(a(x)=a_0+a_1x^1+a_2x^2+...)</math> a polinomok == | ||
+ | {{Kvízkérdés|típus=több|válasz=3}} | ||
+ | # foka deg(c(x))=N-1 az összes érvényes (N=q+1,K-q-1, q=pm) paraméterű c(x) kódszó-polinom esetén. | ||
+ | # összegzését például az azonos fokú tagok együtthatóinak moduló q összegzésével végezzük; | ||
+ | # szorzását a (a(x)·b(x)) mod p(x) művelettel végezzük, ahol a szorzat együtthatóit moduló p szorzással számoljuk és p(x) egy m-ed fokú irreducibilis polinom. | ||
+ | # szorzását az azonos fokú tagok együtthatóinak moduló q szorzatával végezzük; | ||
+ | |||
+ | == Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,2,3}} | ||
+ | # szigorúan kisebb feltétel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető. | ||
+ | # szigorúan egyenlőséggel teljesül, az prefix komplett. | ||
+ | # szigorúan kisebb feltétellel teljesül, az prefix redundáns. | ||
+ | # szigorúan egyenlőséggel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető. | ||
+ | |||
+ | == Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,2,3}} | ||
+ | # a dekódolhatóság egyik szükséges feltétele az üzenetszavak és a kódszavak kölcsönösen egyértelmű összerendelése. | ||
+ | # a dekódolhatóság egyik elégséges feltétele, hogy semelyik kódszó sem lehet folytatása egy másik érvényes kódszónak az forrásszavak és a kódszavak kölcsönösen egyértelmű Összerendelése mellett. | ||
+ | # a kódolás célja a redundancia csökkentése, azaz a tömörítés. | ||
+ | # mindig olyan fix hosszú kódszavakat állítunk elő, amik hosszabbak az üzenetszavaknál, hogy ne lépjen fel információvesztés. | ||
+ | |||
+ | == Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy <math>X</math> kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz == | ||
+ | {{Kvízkérdés|típus=több|válasz=2}} | ||
+ | # minden esetben nagyobb X entrópiájánál. | ||
+ | # nagyobb vagy egyenlő X entrópiájánál. | ||
+ | # egész szám lesz, ha minden esemény valószínűsége 2 valamely negatív egész hatványa. | ||
+ | # az X lehetséges értékeinek számával megegyező, ha az nagyobb vagy egyenlő, mint X entrópiája. | ||
+ | |||
+ | == Egy diszkrét valószínűségi változó <math>X</math> esetén == | ||
+ | {{Kvízkérdés|típus=több|válasz=2,3,4}} | ||
+ | # az entrópia <math>H(X)</math> normális eloszlás esetén maximális, azaz <math>H(X) = H_0(X)</math> | ||
+ | # az entrópia <math>H(X)</math> alsó és felső korlátja is létezik. | ||
+ | # az entrópia <math>H(X)</math> egyenletes eloszlás esetén maximális, azaz <math>H(X) = H_0(X)</math>. | ||
+ | # a redundancia <math>R(X) = H_0(X) − H(X)</math>. | ||
== Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság) == | == Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság) == | ||
28. sor: | 84. sor: | ||
# Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete. | # Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete. | ||
# Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete. | # Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete. | ||
+ | |||
+ | == Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II) == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,2,3,4}} | ||
+ | # az algoritmus első lépéseként meghatározzuk a kódszavak hosszát. | ||
+ | # az algoritmus második lépésére egy lehetséges lejárás az úgynevezett lexikográfiai módszer. | ||
+ | # az algoritmus második lépésére egy lehetséges lejárás az úgynevezett kumulatív valószínűség módszere. | ||
+ | # fix hosszú forrásszavakat változó hosszú kódszavakká kódolunk. | ||
+ | |||
+ | == A bináris aritmetikai kód dekódolható, ha == | ||
+ | {{Kvízkérdés|típus=több|válasz=1}} | ||
+ | # a forrás szimbólumkészletét (a forrás-ABC-t) kiegészítjük egy megfelelően választott valószínűségű "STOP" szimbólummal, ami a kódolandó forrásszimbólum-sorozat végét jelzi. | ||
+ | # a szimbólumok egy adott hosszúságú sorozatát kódoljuk mindig egy kódszóba. | ||
+ | # azonos hosszúságú kódszavakat állítunk elő, azaz a szimbólumsorozat kódolását akkor hagyjuk abba, ha egy adott kettedestört-hosszat elértünk. | ||
+ | # mindig két forrásszimbólumot kódolunk, mivel a kód bináris. | ||
+ | |||
+ | == Egy diszkrét valószínűségi változó <math>X</math> esetén == | ||
+ | {{Kvízkérdés|típus=több|válasz=3}} | ||
+ | # az <math>X_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 1</math>. | ||
+ | # az <math>x_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 0</math>. | ||
+ | # a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 0</math>. | ||
+ | # a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 1</math>. | ||
+ | |||
+ | == Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát <math>(X_1, X_2, ..., X_k)</math> tekintve, ha a forrás == | ||
+ | {{Kvízkérdés|típus=több|válasz=1,3,4}} | ||
+ | # memóriamentes (DMS), akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia k növelésével szigorúan monoton nő. | ||
+ | # memóriamentes (DMS), akkor a <math>H(X_k|X_1, X_2,....., X_{k-1})</math> feltételes entrópia k növelésével szigorúan monoton csökkenő. | ||
+ | # memóriával rendelkezik, akkor a <math>H(X_k|X_1, X_2,..., X_{k-1})</math> feltételes entrópia k növelésével monoton csökkenő. | ||
+ | # memóriával rendelkezik, akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia kisebb, mint memóriamentes (DMS) esetben. | ||
+ | |||
+ | == Két diszkrét valószínűségi változó, <math>X</math> és <math>Y</math> esetén == | ||
+ | {{Kvízkérdés|típus=több|válasz=1}} | ||
+ | # ha <math>p(x_i) < p(y_j)</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül nagyobb, mint <math>y_j</math> eseményé. | ||
+ | # ha <math>x_i < y_j</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül kisebb, mint <math>y_j</math> eseményé. | ||
+ | # ha <math>X</math> egyenletes eloszlású és <math>Y</math> ettől eltérő eloszlású, akkor <math>H(X) < H(Y)</math>. | ||
+ | # az azonos értékű események <math>(x_i = y_j)</math> információ tartama felétlenül azonos. |
A lap jelenlegi, 2023. június 23., 08:54-kori változata
Tartalomjegyzék
- 1 Digitális jelek átvitelekor az [math]M[/math]-állapotú jelkészlet
- 2 Folytonos idejű, de [math]B[/math] sávra korlátozott AWGN csatorna
- 3 Csak additív termikus zajjal (AWGN) terhelt csatorna esetén az optimális vevőben a legvalószínűbb szimbólum meghatározásához feltétlenül ismernünk kell többek között
- 4 [math]GF(q=p^m)[/math] prím hatvány méretű véges test felett értelmezett lineáris blokk kódok polinomos ábrázoláskor [math](a(x)=a_0+a_1x^1+a_2x^2+...)[/math] a polinomok
- 5 Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség
- 6 Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén
- 7 Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy [math]X[/math] kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz
- 8 Egy diszkrét valószínűségi változó [math]X[/math] esetén
- 9 Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság)
- 10 Egy stohasztikus folyamat erős stacionaritásának szükséges, de nem feltétlenül elégséges feltétele, hogy
- 11 A bináris aritmetikai kód
- 12 Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- 13 Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II)
- 14 A bináris aritmetikai kód dekódolható, ha
- 15 Egy diszkrét valószínűségi változó [math]X[/math] esetén
- 16 Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát [math](X_1, X_2, ..., X_k)[/math] tekintve, ha a forrás
- 17 Két diszkrét valószínűségi változó, [math]X[/math] és [math]Y[/math] esetén
Digitális jelek átvitelekor az [math]M[/math]-állapotú jelkészlet
- D dimenziószáma a jelek vektoriális leírásánál legfeljebb [math]M[/math] lehet, vagyis [math]D ≤ M[/math]
- kerül alkalmazásra, mert a frekvenciasáv takarékos felhasználásához arra kell törekedni, hogy [math]D[/math] dimenziószám minél jobban megközelítse a maximumot, [math]M[/math]-et.
- minden esetben egyértelműen megfeleltethető egy [math]D ≤ M[/math] dimenziós jeltér [math]M[/math]-elemű vektorkészletének.
- bármely jele felírható a jelteret kifeszítő ortogonális, normált (ortonormált) bázisfüggvény rendszer függvényinek lineáris kombinációjaként.
Folytonos idejű, de [math]B[/math] sávra korlátozott AWGN csatorna
- kapacitása független a B sávszélességtől, hiszen a jel/zaj viszony (SNR) független a sávszélességtől.
- kapacitása azért csökken a B sávszélesség csökkentésével, mert a zajteljesítményszint is csökken.
- 0 dB jel/zaj viszony [math](bit – SNR, E_b/E_0)[/math] mellett 1 bit/sec/Hz átvitelt tesz lehetővé maximum.
- Gauss eloszlású bemeneti jel esetén teszi lehetővé a legtöbb információ átvitelét.
Csak additív termikus zajjal (AWGN) terhelt csatorna esetén az optimális vevőben a legvalószínűbb szimbólum meghatározásához feltétlenül ismernünk kell többek között
- az összes lehetséges jelalakot (időfüggvényt) és a jelalakok a-priori adási valószínűségeit, ha nem egyenletes eloszlásúak.
- az összes jelalak (időfüggvény) energiáját, ha azok különbözőek.
- [math]N_0[/math] értékét, ha a jelalakok a-priori adási valószínűségei azonosak, hiszen a jel-zaj viszony (SNR) függ a zajteljesítménytől.
- a jelvektorok a-priori adási valószínűségeit, ha azok különbözőek.
[math]GF(q=p^m)[/math] prím hatvány méretű véges test felett értelmezett lineáris blokk kódok polinomos ábrázoláskor [math](a(x)=a_0+a_1x^1+a_2x^2+...)[/math] a polinomok
- foka deg(c(x))=N-1 az összes érvényes (N=q+1,K-q-1, q=pm) paraméterű c(x) kódszó-polinom esetén.
- összegzését például az azonos fokú tagok együtthatóinak moduló q összegzésével végezzük;
- szorzását a (a(x)·b(x)) mod p(x) művelettel végezzük, ahol a szorzat együtthatóit moduló p szorzással számoljuk és p(x) egy m-ed fokú irreducibilis polinom.
- szorzását az azonos fokú tagok együtthatóinak moduló q szorzatával végezzük;
Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség
- szigorúan kisebb feltétel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
- szigorúan egyenlőséggel teljesül, az prefix komplett.
- szigorúan kisebb feltétellel teljesül, az prefix redundáns.
- szigorúan egyenlőséggel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén
- a dekódolhatóság egyik szükséges feltétele az üzenetszavak és a kódszavak kölcsönösen egyértelmű összerendelése.
- a dekódolhatóság egyik elégséges feltétele, hogy semelyik kódszó sem lehet folytatása egy másik érvényes kódszónak az forrásszavak és a kódszavak kölcsönösen egyértelmű Összerendelése mellett.
- a kódolás célja a redundancia csökkentése, azaz a tömörítés.
- mindig olyan fix hosszú kódszavakat állítunk elő, amik hosszabbak az üzenetszavaknál, hogy ne lépjen fel információvesztés.
Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy [math]X[/math] kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz
- minden esetben nagyobb X entrópiájánál.
- nagyobb vagy egyenlő X entrópiájánál.
- egész szám lesz, ha minden esemény valószínűsége 2 valamely negatív egész hatványa.
- az X lehetséges értékeinek számával megegyező, ha az nagyobb vagy egyenlő, mint X entrópiája.
Egy diszkrét valószínűségi változó [math]X[/math] esetén
- az entrópia [math]H(X)[/math] normális eloszlás esetén maximális, azaz [math]H(X) = H_0(X)[/math]
- az entrópia [math]H(X)[/math] alsó és felső korlátja is létezik.
- az entrópia [math]H(X)[/math] egyenletes eloszlás esetén maximális, azaz [math]H(X) = H_0(X)[/math].
- a redundancia [math]R(X) = H_0(X) − H(X)[/math].
Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság)
- csak akkor határozható meg ha X és Y eloszlása megegyezik
- D(P(X)) || P(Y)) a P(X) és P(Y) eloszlások “hasonlóságának mértéke
- D(P(X,Y) || P(Y,X)) = 0 bármely P(X) és P(Y) eloszlás esetén
- D(P(X,Y) || P(X)P(Y)) = 0, ha X és Y függetlenek
Egy stohasztikus folyamat erős stacionaritásának szükséges, de nem feltétlenül elégséges feltétele, hogy
- elsőrendű valószínűségi függvénye az időben állandó legyen.
- másodrendű valószínűségi függvénye a [math]\Delta[/math]t = 5 szekundum időbeni eltolásra invariáns legyen.
- k-adrendű valószínűségi eloszlásfüggvénye bármely [math]\Delta[/math]t időbeni eltolásra invariáns legyen.
- várható értéke időfüggetlen legyen.
A bináris aritmetikai kód
- a [0, 1) intervallumon a legnagyobb valószínüségű forrásszimbólumhoz a legkisebb részintervallumot rendeli.
- egy "STOP" szimbólummal végződő forrásszimbólum-sorozathoz a hozzá tartozó részintervallumba eső legrövidebb kettedes tört kettedes pont utáni bitjeit rendeli, mint kód.
- igényli az elsőrendű forráseloszlás a-priori ismeretét.
- a "STOP" Szimbólumon kívül további járulékos biteket (redundanciát) fűz a forrás bitjeihez.
Diszkrét, legalább gyenge értelemben (WSS) stacionárius, memóriával rendelkező forrás esetén
- Huffman kódolást forráskiterjesztéssel alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva csak a forrásszimbólumok elsőrendű eloszlásának ismerete szükséges.
- Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
- Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II)
- az algoritmus első lépéseként meghatározzuk a kódszavak hosszát.
- az algoritmus második lépésére egy lehetséges lejárás az úgynevezett lexikográfiai módszer.
- az algoritmus második lépésére egy lehetséges lejárás az úgynevezett kumulatív valószínűség módszere.
- fix hosszú forrásszavakat változó hosszú kódszavakká kódolunk.
A bináris aritmetikai kód dekódolható, ha
- a forrás szimbólumkészletét (a forrás-ABC-t) kiegészítjük egy megfelelően választott valószínűségű "STOP" szimbólummal, ami a kódolandó forrásszimbólum-sorozat végét jelzi.
- a szimbólumok egy adott hosszúságú sorozatát kódoljuk mindig egy kódszóba.
- azonos hosszúságú kódszavakat állítunk elő, azaz a szimbólumsorozat kódolását akkor hagyjuk abba, ha egy adott kettedestört-hosszat elértünk.
- mindig két forrásszimbólumot kódolunk, mivel a kód bináris.
Egy diszkrét valószínűségi változó [math]X[/math] esetén
- az [math]X_i = 1[/math] esemény információ tartama feltétlenül [math]I(x_i) = 1[/math].
- az [math]x_i = 1[/math] esemény információ tartama feltétlenül [math]I(x_i) = 0[/math].
- a [math]p(x_i) = 1[/math] valószínűségű esemény információ tartama feltétlenül [math]I(x_i) = 0[/math].
- a [math]p(x_i) = 1[/math] valószínűségű esemény információ tartama feltétlenül [math]I(x_i) = 1[/math].
Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát [math](X_1, X_2, ..., X_k)[/math] tekintve, ha a forrás
- memóriamentes (DMS), akkor a [math]H(X_1, X_2, ..., X_k)[/math] együttes entrópia k növelésével szigorúan monoton nő.
- memóriamentes (DMS), akkor a [math]H(X_k|X_1, X_2,....., X_{k-1})[/math] feltételes entrópia k növelésével szigorúan monoton csökkenő.
- memóriával rendelkezik, akkor a [math]H(X_k|X_1, X_2,..., X_{k-1})[/math] feltételes entrópia k növelésével monoton csökkenő.
- memóriával rendelkezik, akkor a [math]H(X_1, X_2, ..., X_k)[/math] együttes entrópia kisebb, mint memóriamentes (DMS) esetben.
Két diszkrét valószínűségi változó, [math]X[/math] és [math]Y[/math] esetén
- ha [math]p(x_i) \lt p(y_j)[/math], akkor [math]x_i[/math] esemény információ tartama feltétlenül nagyobb, mint [math]y_j[/math] eseményé.
- ha [math]x_i \lt y_j[/math], akkor [math]x_i[/math] esemény információ tartama feltétlenül kisebb, mint [math]y_j[/math] eseményé.
- ha [math]X[/math] egyenletes eloszlású és [math]Y[/math] ettől eltérő eloszlású, akkor [math]H(X) \lt H(Y)[/math].
- az azonos értékű események [math](x_i = y_j)[/math] információ tartama felétlenül azonos.