InfElmKidolgozas
Ez az oldal a korábbi SCH wikiről lett áthozva.
Ha úgy érzed, hogy bármilyen formázási vagy tartalmi probléma van vele, akkor, kérlek, javíts rajta egy rövid szerkesztéssel!
Ha nem tudod, hogyan indulj el, olvasd el a migrálási útmutatót.
Elkezdtem magamnak kijegyzetelni a cuccot, mert így könnyű tanulni szerintem. Azért fel is dobom netre, hátha valakinek hasznára válik. A fájlok ms journalban készültek, a nézegető innen letölthető. Ha lesz érdeklődés, majd kinyomtatom pdfbe is.
-- SzaMa - 2006.01.04.
Tudjátok: Tanuluás céljából csak végső esetben használjátok! (Egyébként tényleg, ott a könyv, az a biztos.)
Vizsgatételek Laci lapján
- Entrópia és tulajdonságai
- Feltételes entrópia és tulajdonságai
- Kölcsönös információ és tulajdonságai tk. 137.o.
- Egyértelmû dekódolhatóság, prefix kód
- Jensen-egyenlõtlenség
- McMillan-egyenlõtlenség
- Kraft-egyenlõtlenség
- Üzenet változó szóhosszúságú kódolása
- Shannon-Fano-kód
- Huffman-kód
- Lempel-Ziv algoritmusok
- Forrásentrópia
- Stacionárius forrás változó szóhosszúságú kódolása
- Markov-forrás
- Forráskódolás elõírt hibavalószínûséggel
- Információstabilitás befejezetlen
- Forráskódolás betûnkénti hûségkritériummal
- Bindi üzenete: tetelek kimondasa kell csak meg def, es azt tudni errol hogy a tomorithetseg also korlatjarol szol
- Egyenletes kvantáló négyzetes hibája
- Egyenletes kvantáló entrópiája
- Lloyd--Max-algoritmus
- Kompanderes kvantálás
- Vektorkvantálás
- Prediktív kvantálás (DPCM, DM)
- Lineáris becslés - jpg
- könyv alapján készült, de nem biztos, hogy elég, meg az sem, hogy jó -- Gabesz - 2006.01.24.
- Bindi üzenete: a DCT meg a SCT kepletet nem kell tudni csak hogy a DCT pl a jpegben hasznaljak es a bitallokaciot is kell tudni
- Bayes-döntés
- Maximum likelihood döntés bináris szimmetrikus csatorna kimenetén
- Optimális detektálás
- Emlékezetnélküli csatorna
- Csatornakapacitás
- Fano-egyenlõtlenség
- Csatornakódolási tétel megfordítása
- Csatornakódolási tétel (bizonyításvázlat) befejezetlen
- Bindi üzenete: A lenyeg hogy a varhato erteket vizsgaljuk a valoszinusegek helyett mertha a varhato ertek pozitiv akkor az ertekek tobbsege is pozitiv amibol a varhato erteket kepezzuk (a biz 4 oldal, ugyhogy mondta Laci hogy aki nem normalis csak az vagja be :) )
Ennyi. Még van jópár hiányosság, de már levizsgáztam belőle. Semmiképp ne ebből tanuljatok, mert észrevettem pár előjelhibát benne, ergo biztos van még sok. Visszatekintve néhány tételnél nem jó helyre kerültek a hangsúlyok, de azért többségében szerintem sikerült eltalálni, hogy mi a fontos. Amiért hasznos lehet megnézni, ezeket, az az, hogy igyekeztem minden lépést is leírni (Laci egy csomót trivinek vesz), meg sokszor odaírtam a hivatkozott definíciót, tételt, hogy gyorsabban fel lehessen fogni.
Sok sikert annak, aki még vizsga előtt áll! És örülnék, ha szép lassan a maradék tételek is felkerülnének, meg készülne korrektúra, talán nyomtatott anyag...
-- SzaMa - 2006.01.09.
Egy szemléltetés, amivel talán könnyebb megérteni a max likelihood és Bayes döntést: (nem biztos, hogy helyes szemlélet - aki jobban ért hozzá, javítsa ki!)
Feladtak egy *a* üzenetet, és így kaptam egy *x* jelet. Mit jelent *x*? Mi lehetett *a*? Józan paraszti ésszel végiggondolva: megnézem melyik *a* üzenethez melyik *x* a legvalószínűbb, majd ez alapján visszafelé: akkor hibázhatok a legkisebbet, ha az x-hez azt az a-t választom, melyre x esélye a legnagyobb. Ez a max likelihood. Jól működik akkor, ha nem tudom *a* eloszlását, vagy pedig az teljesen véletlen (egyenletes).
Ám ennél még jobb (kisebb hibavalószínűségű) döntést is hozhatunk: ha figyelembe vesszük, hogy melyik *a* milyen valószínűséggel fordul elő: ugyanis ha egy nagyon és egy kevésbé valószínű *a* esetén is jöhet *x*, akkor a nagyobb valószínűségűt választva kisebb eséllyel hibázok. Ezt valósítja meg a Bayes döntés, amely a lehető legjobb, amit tehetek. A gondolatmenetbe beleillik (ám még fontosabb, hogy behelyettesítve kijön), hogy ha *a* eloszlása egyenletes, akkor a max likelihood megegyezik a Bayes döntéssel (nincs kisebb és nagyobb valószínűségű *a*, mind egyforma).
Kissé formálisabban: Bayes esetén P(A|X)-et maximáljuk, max likelihoodnál megelégszünk a P(XA) maximalizálásánál.
- Ezen a helyen volt linkelve a(z) Pdf.zip nevű fájl ("Pdf.zip" link szöveggel) a régi wiki http://wiki-old.sch.bme.hu/bin/view/Infoalap/InfElmKidolgozas oldaláról. (Ha szükséged lenne a fájlra, akkor a pontos oldalmegnevezéssel együtt küldd el a wiki sch.bme.hu címre a kérésedet)
- SzaMa kidolgozása, pdf-be nyomtatva, egyben
-> sokáig csodálkoztam, hogy a pdf-ekben miért nem látszik a lényeg, mert ugye az sárgával ki van húzva, és eltakarja pdf-ben a szöveget. De rájöttem, hogy a jnt-kben értelmesen van, szóval csak azokat lehet rendesen megnézni... -- Csapszi - 2006.01.28.