„Kooperatív és tanuló rendszerek - vizsga 2012-05-29” változatai közötti eltérés

A VIK Wikiből
Ugrás a navigációhoz Ugrás a kereséshez
a (Kiskoza átnevezte a(z) KooperativRendszerekVizsga2012maj29 lapot Kooperatív és tanuló rendszerek - vizsga 2012-05-29 lapra átirányítás nélkül)
1. sor: 1. sor:
{{GlobalTemplate|Infoszak|KooperativRendszerekVizsga2012maj29}}
+
{{vissza|Kooperatív és tanuló rendszerek}}
 
 
==Kooperatív és Tanuló Rendszerek vizsga 2012. május 29.==
 
  
 
''Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!''
 
''Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!''
  
'''1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)'''
+
;1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)
 +
:Bemenet: <math>x_1,x_2,x_3 \epsilon \{0,1\}</math> (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)
  
Bemenet: <math>x_1,x_2,x_3 \epsilon \{0,1\}</math> (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)
+
:Helyes kimenet: <math>y = \begin{cases}  
 
 
Helyes kimenet: <math>y = \begin{cases}  
 
 
   -1 & \mbox{ ha } x_1+x_2+x_3 \leq 1 \\
 
   -1 & \mbox{ ha } x_1+x_2+x_3 \leq 1 \\
 
   +1 & \mbox{ ha } x_1+x_2+x_3 \geq 2
 
   +1 & \mbox{ ha } x_1+x_2+x_3 \geq 2
 
\end{cases}</math>
 
\end{cases}</math>
  
Másképp írva: <math>y = \begin{cases}  
+
:Másképp írva: <math>y = \begin{cases}  
 
   -1 & \mbox{ ha } x_1+x_2+x_3 < 1.5 \\
 
   -1 & \mbox{ ha } x_1+x_2+x_3 < 1.5 \\
 
   +1 & \mbox{ ha } x_1+x_2+x_3 > 1.5
 
   +1 & \mbox{ ha } x_1+x_2+x_3 > 1.5
20. sor: 17. sor:
  
  
Az <math>x_1+x_2+x_3 = 1.5</math> lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).
+
:Az <math>x_1+x_2+x_3 = 1.5</math> lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).
 
 
 
 
'''2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál: Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)'''
 
 
 
 
 
'''3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index <math>Lq^{(N)}=(\prod_{k=1}^{p}\sqrt{N}q^{(N)}(k))^{1/p}</math> összefüggését, benne a jelöléseket is!(8p)'''
 
<br />Amit találtam erről:<br />
 
Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat &#8722; diszkrét idejű rendszerek esetében &#8722; az alábbi általános formában adható meg:
 
<math> y(k) = f(\phi,\varphi(k)) </math><br />
 
Az <math> f(\phi,\varphi(k)) </math> kapcsolat a modell struktúráját rögzíti, ahol <math> \varphi(k)) </math> az ún. regresszorvektor, k az időindex, <math> \phi </math> pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.<br />
 
Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01<br />
 
Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06<br />  (Majd később beírom ide rendesen)<br />
 
Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.<br />
 
Lipschitz index jelölések:<br />
 
  
  
'''4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)'''
+
;2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál: Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)
<br />
+
:
{{InLineImageLink|Infoszak|KooperativRendszerekVizsga2012maj29|ktr.jpg}}<br />
 
Szintén nem megoldás, de:<br />
 
{{InLineImageLink|Infoszak|KooperativRendszerekVizsga2012maj29|ktr.png}}<br />
 
Egy két processzáló elemből álló teljesen visszacsatolt hálózat (a), és időben kiterített előrecsatolt megfelelője (BPTT) (b).<br />
 
További info: http://www.mit.bme.hu/books/neuralis/ch08s04
 
  
'''5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) (<math>\star</math>) lineáris és (<math>\star\star</math>) nem lineáris esetben? Indokolja a választ! (5p)''' <br />
+
;3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index <math>Lq^{(N)}=(\prod_{k=1}^{p}\sqrt{N}q^{(N)}(k))^{1/p}</math> összefüggését, benne a jelöléseket is!(8p)
Egy hosszú bevezetés a szupportvektorokhoz: <br />
+
:Amit találtam erről:
A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell: <br />
+
::Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat &#8722; diszkrét idejű rendszerek esetében &#8722; az alábbi általános formában adható meg:
<math>d_i(w^{*T}x_i + b^{*})\geq1</math>
+
::<math> y(k) = f(\phi,\varphi(k)) </math>
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:<br/>
+
::Az <math> f(\phi,\varphi(k)) </math> kapcsolat a modell struktúráját rögzíti, ahol <math> \varphi(k)) </math> az ún. regresszorvektor, k az időindex, <math> \phi </math> pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.
<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math> <br/>
+
::Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01
A optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni. <br />
+
::Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06
A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.  
+
:Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.
 +
:Lipschitz index jelölések:<br />
  
Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03<br />
 
A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).
 
  
 +
;4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
 +
: info: http://www.mit.bme.hu/books/neuralis/ch08s04
  
'''6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt (<math>\mu</math>(mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg <math>\mu</math>() összefüggését, ha nem indokolja meg, hogy miért nem. (8p)''' <br />
+
;5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) (<math>\star</math>) lineáris és (<math>\star\star</math>) nem lineáris esetben? Indokolja a választ! (5p)
Röviden most így pótvizsga előtt: <br />
+
:Egy hosszú bevezetés a szupportvektorokhoz:
A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.
+
::A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell:
 +
::<math>d_i(w^{*T}x_i + b^{*})\geq1</math>
 +
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:
 +
::<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math>
 +
:A optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
 +
:A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.  
  
 +
:Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03<br />
 +
:A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).
  
'''7. Mi a szemantikailag specifikált KQML lényege? (4p)'''
 
  
 +
;6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt (<math>\mu</math>(mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg <math>\mu</math>(mü) összefüggését, ha nem indokolja meg, hogy miért nem. (8p)
 +
:Röviden most így pótvizsga előtt:
 +
::A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<mű<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.
  
'''8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)'''
 
  
 +
;7. Mi a szemantikailag specifikált KQML lényege? (4p)
 +
:
  
'''9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)'''
 
  
 +
;8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)
 +
:
  
'''10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)'''
 
  
 +
;9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)
 +
:
  
'''11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)'''
+
;10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)
 +
:
  
  
-- Main.tangostar - 2012.05.29.<br />
+
;11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)
-- [[BartokFerenc|Főnök]] - 2012.05.31.
+
:
  
  
[[Category:Infoszak]]
+
[[Kategória:Mérnök informatikus]]
 +
[[Kategória:Autonóm intelligens rendszerek szakirány]]

A lap 2014. május 26., 12:14-kori változata

← Vissza az előző oldalra – Kooperatív és tanuló rendszerek

Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!

1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)
Bemenet: [math]x_1,x_2,x_3 \epsilon \{0,1\}[/math] (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)
Helyes kimenet: [math]y = \begin{cases} -1 & \mbox{ ha } x_1+x_2+x_3 \leq 1 \\ +1 & \mbox{ ha } x_1+x_2+x_3 \geq 2 \end{cases}[/math]
Másképp írva: [math]y = \begin{cases} -1 & \mbox{ ha } x_1+x_2+x_3 \lt 1.5 \\ +1 & \mbox{ ha } x_1+x_2+x_3 \gt 1.5 \end{cases}[/math]


Az [math]x_1+x_2+x_3 = 1.5[/math] lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).


2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál
Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)
3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index [math]Lq^{(N)}=(\prod_{k=1}^{p}\sqrt{N}q^{(N)}(k))^{1/p}[/math] összefüggését, benne a jelöléseket is!(8p)
Amit találtam erről:
Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat − diszkrét idejű rendszerek esetében − az alábbi általános formában adható meg:
[math] y(k) = f(\phi,\varphi(k)) [/math]
Az [math] f(\phi,\varphi(k)) [/math] kapcsolat a modell struktúráját rögzíti, ahol [math] \varphi(k)) [/math] az ún. regresszorvektor, k az időindex, [math] \phi [/math] pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.
Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01
Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06
Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.
Lipschitz index jelölések:


4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
info: http://www.mit.bme.hu/books/neuralis/ch08s04
5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) ([math]\star[/math]) lineáris és ([math]\star\star[/math]) nem lineáris esetben? Indokolja a választ! (5p)
Egy hosszú bevezetés a szupportvektorokhoz:
A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell:
[math]d_i(w^{*T}x_i + b^{*})\geq1[/math]

A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium megoldásával kereshetjük:

[math]L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ][/math]
A optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni [math]\alpha_i[/math] szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az [math]\alpha_i[/math] Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.
Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03
A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).


6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt ([math]\mu[/math](mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg [math]\mu[/math](mü) összefüggését, ha nem indokolja meg, hogy miért nem. (8p)
Röviden most így pótvizsga előtt:
A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<mű<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.


7. Mi a szemantikailag specifikált KQML lényege? (4p)


8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)


9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)
10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)


11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)