InfElmTetel39

A VIK Wikiből

Ez az oldal a korábbi SCH wikiről lett áthozva.

Ha úgy érzed, hogy bármilyen formázási vagy tartalmi probléma van vele, akkor, kérlek, javíts rajta egy rövid szerkesztéssel!

Ha nem tudod, hogyan indulj el, olvasd el a migrálási útmutatót.


vissza InfelmTetelek-hez <style> li {margin-top: 4px; margin-bottom: 4px;} </style>

Információs divergencia

Definíció

Másnéven Kullback-Liebler távolság.

Tekintsük a következő valószínűségi eloszlásokat:
p_=(p1,p2,...,pn)
q_=(q1,q2,...,qn)

Ezen eloszlások információs divergenciája a következő:

D(p_|q_)=i=1npilogpiqi

Tulandonságai

Pozitív

Az információs divergencia mindig pozitív.
0D(p_|q_)

Bizonyítás:
TODO: definíció szerint, majd a Jensen egyenlőtlenség követkeményével.

Nulla

0=D(p_|q_) acsa. ha a két valószínűségi eloszlás megegyezik.

Ismeretlen nevű tulajdonság

Egy adott eloszlás entrópiájának és az egyenletes eloszlásra vonatkozó információs divergenciájának összege mindig logn

u_=(u1,u2,...,un), ahol i:ui=1/n

H(p)=lognD(p_|u_)

Bizonyítás:

TODO: Behelyettesítünk az entrópia és az információs divergencia képletébe. A inf. div. nél a logaritmusban a hányados szerint az egész szummát két szumma kölönbségévé alakítjuk. Az egyenletes eloszlás 1/n-jét behelyettesítjük. A többi kiesik. Szevasztok.

-- Sales - 2006.06.27.