„Kooperatív és tanuló rendszerek - vizsga 2012-05-29” változatai közötti eltérés

Kiskoza (vitalap | szerkesztései)
Nincs szerkesztési összefoglaló
Hiányzó megoldás pótlása
33. sor: 33. sor:
:Lipschitz index jelölések:<br />
:Lipschitz index jelölések:<br />


<math> q^{(N)}(k) </math> a
<math> q^{(N)}_{ij} = \frac {|y(i)-y(j)|} {|x(i)-x(j)|}</math> ahol <math> i\neq j;        i,j=1,2,   …,P</math>
Lipschitz hányadosok közül a k-adik legnagyobb érték, N a bemeneti változók száma (a regresszorvektor dimenziója), p pedig egy alkalmasan megválasztott pozitív szám, rendszerint p = 0,01P ~ 0,02P. (P a szokásos jelölésnek megfelelően a tanítópontok száma).


;4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
;4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
43. sor: 48. sor:
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:
::<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math>
::<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math>
:A optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
:Az optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
:A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.  
:A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.