„Űrkommunikáció - ZH kvíz” változatai közötti eltérés

Nincs szerkesztési összefoglaló
Nincs szerkesztési összefoglaló
 
(8 közbenső módosítás ugyanattól a felhasználótól nincs mutatva)
1. sor: 1. sor:
{{Kvízoldal|cím=Űrkommunikáció ZH tippelős kérdések|pontozás=+}}
{{Kvízoldal|cím=Űrkommunikáció ZH tippelős kérdések|pontozás=+}}
== Digitális jelek átvitelekor az <math>M</math>-állapotú jelkészlet ==
{{Kvízkérdés|típus=több|válasz=1,3,4}}
# D dimenziószáma a jelek vektoriális leírásánál legfeljebb <math>M</math> lehet, vagyis <math>D ≤ M</math>
# kerül alkalmazásra, mert a frekvenciasáv takarékos felhasználásához arra kell törekedni, hogy <math>D</math> dimenziószám minél jobban megközelítse a maximumot, <math>M</math>-et.
# minden esetben egyértelműen megfeleltethető egy <math>D ≤ M</math> dimenziós jeltér <math>M</math>-elemű vektorkészletének.
# bármely jele felírható a jelteret kifeszítő ortogonális, normált (ortonormált) bázisfüggvény rendszer függvényinek lineáris kombinációjaként.
== Folytonos idejű, de <math>B</math> sávra korlátozott AWGN csatorna ==
{{Kvízkérdés|típus=több|válasz=3,4}}
# kapacitása független a B sávszélességtől, hiszen a jel/zaj viszony (SNR) független a sávszélességtől.
# kapacitása azért csökken a B sávszélesség csökkentésével, mert a zajteljesítményszint is csökken.
# 0 dB jel/zaj viszony <math>(bit – SNR, E_b/E_0)</math> mellett 1 bit/sec/Hz átvitelt tesz lehetővé maximum.
# Gauss eloszlású bemeneti jel esetén teszi lehetővé a legtöbb információ átvitelét.
== Csak additív termikus zajjal (AWGN) terhelt csatorna esetén az optimális vevőben a legvalószínűbb szimbólum meghatározásához feltétlenül ismernünk kell többek között ==
{{Kvízkérdés|típus=több|válasz=1,2,4}}
# az összes lehetséges jelalakot (időfüggvényt) és a jelalakok a-priori adási valószínűségeit, ha nem egyenletes eloszlásúak.
# az összes jelalak (időfüggvény) energiáját, ha azok különbözőek.
# <math>N_0</math> értékét, ha a jelalakok a-priori adási valószínűségei azonosak, hiszen a jel-zaj viszony (SNR) függ a zajteljesítménytől.
# a jelvektorok a-priori adási valószínűségeit, ha azok különbözőek.
== <math>GF(q=p^m)</math> prím hatvány méretű véges test felett értelmezett lineáris blokk kódok polinomos ábrázoláskor <math>(a(x)=a_0+a_1x^1+a_2x^2+...)</math> a polinomok ==
{{Kvízkérdés|típus=több|válasz=3}}
# foka deg(c(x))=N-1 az összes érvényes (N=q+1,K-q-1, q=pm) paraméterű c(x) kódszó-polinom esetén.
# összegzését például az azonos fokú tagok együtthatóinak moduló q összegzésével végezzük;
# szorzását a (a(x)·b(x)) mod p(x) művelettel végezzük, ahol a szorzat együtthatóit moduló p szorzással számoljuk és p(x) egy m-ed fokú irreducibilis polinom.
# szorzását az azonos fokú tagok együtthatóinak moduló q szorzatával végezzük;
== Egy prefix kód, melynél a kódszavak hosszára vonatkozó Kraft egyenlőtlenség ==
{{Kvízkérdés|típus=több|válasz=1,2,3}}
# szigorúan kisebb feltétel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
# szigorúan egyenlőséggel teljesül, az prefix komplett.
# szigorúan kisebb feltétellel teljesül, az prefix redundáns.
# szigorúan egyenlőséggel teljesülése esetén információvesztés nélkül a kódszavak rövidítésével prefix kompletté tehető.
== Egy diszkrét szimbólumforrás entrópia-forráskódolása esetén ==
{{Kvízkérdés|típus=több|válasz=1,2,3}}
# a dekódolhatóság egyik szükséges feltétele az üzenetszavak és a kódszavak kölcsönösen egyértelmű összerendelése.
# a dekódolhatóság egyik elégséges feltétele, hogy semelyik kódszó sem lehet folytatása egy másik érvényes kódszónak az forrásszavak és a kódszavak kölcsönösen egyértelmű Összerendelése mellett.
# a kódolás célja a redundancia csökkentése, azaz a tömörítés.
# mindig olyan fix hosszú kódszavakat állítunk elő, amik hosszabbak az üzenetszavaknál, hogy ne lépjen fel információvesztés.
== Shannon I. tétele (Forráskódolás tétele) kimondja, hogy egy <math>X</math> kimenetű diszkrét memóriamentes forrás (DMS) kódolása esetén az átlagos kódszó-hossz ==
{{Kvízkérdés|típus=több|válasz=2}}
# minden esetben nagyobb X entrópiájánál.
# nagyobb vagy egyenlő X entrópiájánál.
# egész szám lesz, ha minden esemény valószínűsége 2 valamely negatív egész hatványa.
# az X lehetséges értékeinek számával megegyező, ha az nagyobb vagy egyenlő, mint X entrópiája.
== Egy diszkrét valószínűségi változó <math>X</math> esetén ==
{{Kvízkérdés|típus=több|válasz=2,3,4}}
# az entrópia <math>H(X)</math> normális eloszlás esetén maximális, azaz <math>H(X) = H_0(X)</math>
# az entrópia <math>H(X)</math> alsó és felső korlátja is létezik.
# az entrópia <math>H(X)</math> egyenletes eloszlás esetén maximális, azaz <math>H(X) = H_0(X)</math>.
# a redundancia <math>R(X) = H_0(X) − H(X)</math>.


== Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság) ==
== Azonos eseménytér felett értelmezett két diszkrét valószínűségi változó, X és Y esetén a relatív entrópia (Kullback-Leibler távolság) ==
28. sor: 84. sor:
# Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
# Lempel-Ziv kódolást (LZ77 vagy LZ78) alkalmazva nem szükséges a forrás feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete.
# Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
# Shannon-Fano kódolást forráskiterjesztés nélkül alkalmazva nem szükséges a forrás # feltételes entrópiáinak (ezzel persze együttes eloszlásainak) ismerete, csak a forrásszimbólumok elsőrendű eloszlásának ismerete.
== Források Entrópia kódolását Shannon algoritmusával végezve (Entropy Coding, Type II) ==
{{Kvízkérdés|típus=több|válasz=1,2,3,4}}
# az algoritmus első lépéseként meghatározzuk a kódszavak hosszát.
# az algoritmus második lépésére egy lehetséges lejárás az úgynevezett lexikográfiai módszer.
# az algoritmus második lépésére egy lehetséges lejárás az úgynevezett kumulatív valószínűség módszere.
# fix hosszú forrásszavakat változó hosszú kódszavakká kódolunk.
== A bináris aritmetikai kód dekódolható, ha ==
{{Kvízkérdés|típus=több|válasz=1}}
# a forrás szimbólumkészletét (a forrás-ABC-t) kiegészítjük egy megfelelően választott valószínűségű "STOP" szimbólummal, ami a kódolandó forrásszimbólum-sorozat végét jelzi.
# a szimbólumok egy adott hosszúságú sorozatát kódoljuk mindig egy kódszóba.
# azonos hosszúságú kódszavakat állítunk elő, azaz a szimbólumsorozat kódolását akkor hagyjuk abba, ha egy adott kettedestört-hosszat elértünk.
# mindig két forrásszimbólumot kódolunk, mivel a kód bináris.
== Egy diszkrét valószínűségi változó <math>X</math> esetén ==
{{Kvízkérdés|típus=több|válasz=3}}
# az <math>X_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 1</math>.
# az <math>x_i = 1</math> esemény információ tartama feltétlenül <math>I(x_i) = 0</math>.
# a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 0</math>.
# a <math>p(x_i) = 1</math> valószínűségű esemény információ tartama feltétlenül <math>I(x_i) = 1</math>.
== Egy legalább k-ad rendben stacionárius, diszkrét forrás k darab szimbólumát <math>(X_1, X_2, ..., X_k)</math> tekintve, ha a forrás ==
{{Kvízkérdés|típus=több|válasz=1,3,4}}
# memóriamentes (DMS), akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia k növelésével szigorúan monoton nő.
# memóriamentes (DMS), akkor a <math>H(X_k|X_1, X_2,....., X_{k-1})</math> feltételes entrópia k növelésével szigorúan monoton csökkenő.
# memóriával rendelkezik, akkor a <math>H(X_k|X_1, X_2,..., X_{k-1})</math> feltételes entrópia k növelésével monoton csökkenő.
# memóriával rendelkezik, akkor a <math>H(X_1, X_2, ..., X_k)</math> együttes entrópia kisebb, mint memóriamentes (DMS) esetben.
== Két diszkrét valószínűségi változó, <math>X</math> és <math>Y</math> esetén ==
{{Kvízkérdés|típus=több|válasz=1}}
# ha <math>p(x_i) < p(y_j)</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül nagyobb, mint <math>y_j</math> eseményé.
# ha <math>x_i < y_j</math>, akkor <math>x_i</math> esemény információ tartama feltétlenül kisebb, mint <math>y_j</math> eseményé.
# ha <math>X</math> egyenletes eloszlású és <math>Y</math> ettől eltérő eloszlású, akkor <math>H(X) < H(Y)</math>.
# az azonos értékű események <math>(x_i = y_j)</math> információ tartama felétlenül azonos.