InfElmTetel39

A VIK Wikiből
A lap korábbi változatát látod, amilyen Unknown user (vitalap) 2012. október 21., 20:59-kor történt szerkesztése után volt. (Új oldal, tartalma: „{{GlobalTemplate|Infoalap|InfElmTetel39}} vissza InfelmTetelek-hez <style> li {margin-top: 4px; margin-bottom: 4px;} </style> ==Információs diverge…”)
(eltér) ← Régebbi változat | Aktuális változat (eltér) | Újabb változat→ (eltér)

Ez az oldal a korábbi SCH wikiről lett áthozva.

Ha úgy érzed, hogy bármilyen formázási vagy tartalmi probléma van vele, akkor, kérlek, javíts rajta egy rövid szerkesztéssel!

Ha nem tudod, hogyan indulj el, olvasd el a migrálási útmutatót.


vissza InfelmTetelek-hez <style> li {margin-top: 4px; margin-bottom: 4px;} </style>

Információs divergencia

Definíció

Másnéven Kullback-Liebler távolság.

Tekintsük a következő valószínűségi eloszlásokat:


Ezen eloszlások információs divergenciája a következő:

Tulandonságai

Pozitív

Az információs divergencia mindig pozitív.

Bizonyítás:
TODO: definíció szerint, majd a Jensen egyenlőtlenség követkeményével.

Nulla

acsa. ha a két valószínűségi eloszlás megegyezik.

Ismeretlen nevű tulajdonság

Egy adott eloszlás entrópiájának és az egyenletes eloszlásra vonatkozó információs divergenciájának összege mindig

ahol

Bizonyítás:

TODO: Behelyettesítünk az entrópia és az információs divergencia képletébe. A inf. div. nél a logaritmusban a hányados szerint az egész szummát két szumma kölönbségévé alakítjuk. Az egyenletes eloszlás 1/n-jét behelyettesítjük. A többi kiesik. Szevasztok.

-- Sales - 2006.06.27.