InfElmTetel37

A VIK Wikiből
A nyomtatható változat már nem támogatott, és hibásan jelenhet meg. Kérjük, frissítsd a böngésződ könyvjelzőit, és használd a böngésző alapértelmezett nyomtatás funkcióját.

Ez az oldal a korábbi SCH wikiről lett áthozva.

Ha úgy érzed, hogy bármilyen formázási vagy tartalmi probléma van vele, akkor, kérlek, javíts rajta egy rövid szerkesztéssel!

Ha nem tudod, hogyan indulj el, olvasd el a migrálási útmutatót.


<style> li {margin-top: 4px; margin-bottom: 4px;} </style>

Aritmetikai kódolás

Tk. 28-30. o.

Az aritmetikai kódolás előnyei

A blokkméret növelésével az egy betűre jutó átlagos szóhosszal tetszőlegesen meg tudjuk közelíteni felülről a H(X)logs határt. Sajnos pl a Huffman kód esetében a blokk kódolásához be kell várnunk a teljes kódolandó blokk beérkezését, hiszen meg kell határoznunk a betűk relatív valószínűségét. Ezen a problémán segít az adaptív Huffman kód, de minkét típusú Huffman kódnál problémát okoz, hogy a blokkméret növekedésével az algoritmus bonyolultsága exponenciálisan növekszik.

Az aritmetikai kódolással a blokkméret növelésével szintén meg tudjuk közelíteni a fenti korlátot, ráadásul ez valós időben történik, és a komplexitás is kezelhető marad.

Az aritmetikai kódolás

Particionálás: egy halmaz felosztása diszjunkt részhalmazokra úgy, hogy azok teljesen lefedjék a halmazt.

Ezt fogjuk csinálni: Tekintsük a [0,1) intervallumot, ezt fogjuk partícionálni, majd a partíciók közül egyet kiválasztva azt újrapartícionáljuk, és ezt annyiszor ismételjük meg, ahány elemű blokkot kódolunk. Mindig a legmélyebben egymásbaágyazott partíciók egyikét partícionáljuk tovább. A kód a végén a legmélyebb partíciók egyikébe eső tetszőleges szám lesz.

Vegyük a [0,1) intervallumot, és partícionáljuk úgy, hogy a forrásábécé minden eleméhez rendeljünk egy intervallumot, aminek a nagysága legyen arányos a hozzá rendelt betű valószínűségével. Legyen a forrásábécé valószínűségi eloszlása: (p1,p2,...,pn)

q0=0
qi=j=1ipi

Ekkor az i. intervallum a [qi1,qi).

Az első betű kódolásakor kiválasztjuk a hozzá tartozó intervallumot, amit a fentiek szerint ismét partícionálunk, és a kapott intervallumokból kiválasztjuk a második betűhöz tartozót, és így tovább.

A blokk végére jutva elküldtük a blokkhoz tartozó kódot. Ha p(x) az x üzenetblokk valószínűsége, akkor igazolható, hogy ezt elég log1p(x)+1 biten ábrázolni.

Az átlagos kódszóhossz ebből (k hosszú blokkok esetén):
E(log1p(X)+1)=xϵαkp(x)(log1p(x)+1) xϵαkp(x)((log1p(x)+1)+1)= xϵαkp(x)(log1p(x)+2)= xϵαkp(x)log1p(x)+2xϵαkp(x)= xϵαkp(x)logp(x)+2=H(X)+2

Ha X komponensei független azonos eloszlásúak, a betűnkénti átlagos kódszóhossz:

1kE|f(X)|H(X1)+2k

-- Sales - 2006.06.27.


Itt is van egy elég jó (érthető) leírás: http://www.binaryessence.com/dct/en000119.htm

-- Pecc - 2007.06.15.