„Kooperatív és tanuló rendszerek - vizsga 2012-05-29” változatai közötti eltérés

A VIK Wikiből
Kiskoza (vitalap | szerkesztései)
a Kiskoza átnevezte a(z) KooperativRendszerekVizsga2012maj29 lapot Kooperatív és tanuló rendszerek - vizsga 2012-05-29 lapra átirányítás nélkül
a Egyik kérdés megválaszolása.
 
(2 közbenső módosítás, amit 2 másik szerkesztő végzett, nincs mutatva)
1. sor: 1. sor:
{{GlobalTemplate|Infoszak|KooperativRendszerekVizsga2012maj29}}
{{vissza|Kooperatív és tanuló rendszerek}}
 
==Kooperatív és Tanuló Rendszerek vizsga 2012. május 29.==


''Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!''
''Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!''


'''1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)'''
;1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)
 
:Bemenet: <math>x_1,x_2,x_3 \epsilon \{0,1\}</math> (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)
Bemenet: <math>x_1,x_2,x_3 \epsilon \{0,1\}</math> (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)


Helyes kimenet: <math>y = \begin{cases}  
:Helyes kimenet: <math>y = \begin{cases}  
   -1 & \mbox{ ha } x_1+x_2+x_3 \leq 1 \\
   -1 & \mbox{ ha } x_1+x_2+x_3 \leq 1 \\
   +1 & \mbox{ ha } x_1+x_2+x_3 \geq 2
   +1 & \mbox{ ha } x_1+x_2+x_3 \geq 2
\end{cases}</math>
\end{cases}</math>


Másképp írva: <math>y = \begin{cases}  
:Másképp írva: <math>y = \begin{cases}  
   -1 & \mbox{ ha } x_1+x_2+x_3 < 1.5 \\
   -1 & \mbox{ ha } x_1+x_2+x_3 < 1.5 \\
   +1 & \mbox{ ha } x_1+x_2+x_3 > 1.5
   +1 & \mbox{ ha } x_1+x_2+x_3 > 1.5
20. sor: 17. sor:




Az <math>x_1+x_2+x_3 = 1.5</math> lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).
:Az <math>x_1+x_2+x_3 = 1.5</math> lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).




'''2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál: Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)'''
;2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál: Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)
:


;3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index <math>Lq^{(N)}=(\prod_{k=1}^{p}\sqrt{N}q^{(N)}(k))^{1/p}</math> összefüggését, benne a jelöléseket is!(8p)
:Amit találtam erről:
::Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat &#8722; diszkrét idejű rendszerek esetében &#8722; az alábbi általános formában adható meg:
::<math> y(k) = f(\phi,\varphi(k)) </math>
::Az <math> f(\phi,\varphi(k)) </math> kapcsolat a modell struktúráját rögzíti, ahol <math> \varphi(k)) </math> az ún. regresszorvektor, k az időindex, <math> \phi </math> pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.
::Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01
::Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06
:Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.
:Lipschitz index jelölések:<br />


'''3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index <math>Lq^{(N)}=(\prod_{k=1}^{p}\sqrt{N}q^{(N)}(k))^{1/p}</math> összefüggését, benne a jelöléseket is!(8p)'''
<math> q^{(N)}(k) </math> a
<br />Amit találtam erről:<br />
Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat &#8722; diszkrét idejű rendszerek esetében &#8722; az alábbi általános formában adható meg:
<math> y(k) = f(\phi,\varphi(k)) </math><br />
Az <math> f(\phi,\varphi(k)) </math> kapcsolat a modell struktúráját rögzíti, ahol <math> \varphi(k)) </math> az ún. regresszorvektor, k az időindex, <math> \phi </math> pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.<br />
Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01<br />
Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06<br />  (Majd később beírom ide rendesen)<br />
Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.<br />
Lipschitz index jelölések:<br />


<math> q^{(N)}_{ij} = \frac {|y(i)-y(j)|} {|x(i)-x(j)|}</math> ahol <math> i\neq j;        i,j=1,2,   …,P</math>


'''4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)'''
Lipschitz hányadosok közül a k-adik legnagyobb érték, N a bemeneti változók száma (a regresszorvektor dimenziója), p pedig egy alkalmasan megválasztott pozitív szám, rendszerint p = 0,01P ~ 0,02P. (P a szokásos jelölésnek megfelelően a tanítópontok száma).
<br />
{{InLineImageLink|Infoszak|KooperativRendszerekVizsga2012maj29|ktr.jpg}}<br />
Szintén nem megoldás, de:<br />
{{InLineImageLink|Infoszak|KooperativRendszerekVizsga2012maj29|ktr.png}}<br />
Egy két processzáló elemből álló teljesen visszacsatolt hálózat (a), és időben kiterített előrecsatolt megfelelője (BPTT) (b).<br />
További info: http://www.mit.bme.hu/books/neuralis/ch08s04


'''5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) (<math>\star</math>) lineáris és (<math>\star\star</math>) nem lineáris esetben? Indokolja a választ! (5p)''' <br />
;4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
Egy hosszú bevezetés a szupportvektorokhoz: <br />
: info: http://www.mit.bme.hu/books/neuralis/ch08s04
A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell: <br />
<math>d_i(w^{*T}x_i + b^{*})\geq1</math>
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:<br/>
<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math> <br/>
A optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni. <br />
A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.


Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03<br />
;5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) (<math>\star</math>) lineáris és (<math>\star\star</math>) nem lineáris esetben? Indokolja a választ! (5p)
A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).
:Egy hosszú bevezetés a szupportvektorokhoz:
::A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell:
::<math>d_i(w^{*T}x_i + b^{*})\geq1</math>
A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium  megoldásával kereshetjük:
::<math>L(w,b,\alpha)=\frac{1}{2}w^{T}w - \sum_{i=1}^{P}\alpha_i[d_i(w^{T}x_i + b) - 1 ]</math>
:Az optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni <math>\alpha_i</math> szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
:A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az <math>\alpha_i</math> Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.  


:Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03<br />
:A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).


'''6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt (<math>\mu</math>(mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg <math>\mu</math>(mü) összefüggését, ha nem indokolja meg, hogy miért nem. (8p)''' <br />
Röviden most így pótvizsga előtt: <br />
A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<mű<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.


;6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt (<math>\mu</math>(mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg <math>\mu</math>(mü) összefüggését, ha nem indokolja meg, hogy miért nem. (8p)
:Röviden most így pótvizsga előtt:
::A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<mű<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.


'''7. Mi a szemantikailag specifikált KQML lényege? (4p)'''


;7. Mi a szemantikailag specifikált KQML lényege? (4p)
:


'''8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)'''


;8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)
:


'''9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)'''


;9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)
:


'''10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)'''
;10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)
:




'''11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)'''
;11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)
:Jean-Charles de Borda javasolta 1770-ben a Borda-számlálást a Francia Tudományos Akadémia tagjainak megválasztására. A Borda-számlálás egy egyszerű rangsorolásos módszer, ahol az alternatívákat pontozzák a rangsorolásuk szerint. A hasonló módszereket együtt pozíciós szavazórendszernek nevezik. <math>k</math> darab jelöltünk van, mindenki rangsorol, alternatívánként összegzés. Eredmény az alternatívák teljes, tranzitív szociális rendezése.




-- Main.tangostar - 2012.05.29.<br />
-- [[BartokFerenc|Főnök]] - 2012.05.31.




[[Category:Infoszak]]
[[Kategória:Mérnök informatikus]]
[[Kategória:Autonóm intelligens rendszerek szakirány]]

A lap jelenlegi, 2016. június 14., 00:51-kori változata


Első részből (1-6) legalább 16 pontot, a második részből (7-11) legalább 8 pontot kell szerezni!!

1. Egy (Rosenblatt) perceptronnal kell megtanítania a három (bináris) bemenetű többségi döntés függvényt. Meg tudja tanulni a perceptron a feladatot? Mi a helyzet, ha ugyanezt a feladatot egy Adaline-nak tanítja? Mindkét esetben adjon indoklást is! (4p)
Bemenet: (lehetne {-1,1} is, nem tudom itt melyikre gondoltak, de gondolom mindkettővel elfogadják)
Helyes kimenet:
Másképp írva:


Az lineáris felület helyesen szeparálja a tanítópontokat, tehát a perceptron és az adaline is meg tudja tanulni a feladatot (mert azok lineárisan szeparálható osztályozási problémákra jók).


2. Alkalmazhat-e gradiens-alapú tanító eljárást a következő neurális hálóknál
Rosenblatt perceptron, adaline, egy vagy több rejtett rétegű MLP, RBF, CMAC, SVM, ha a súlyokat tanítjuk, és folytonos hibafüggvényt alkalmazunk? Indokolja meg válaszát! (5p)
3. Dinamikus hálók konstrukciójánál fontos részfeladat a regresszorvektor megválasztása. Mit jelent ez a feladat és mi a regresszorvektor meghatározásának a két fő lépése? A két fő lépés közül melyiknél és mely dinamikus modellosztályok esetében használható a Lipschitz index? Értelmezze a Lipschitz index összefüggését, benne a jelöléseket is!(8p)
Amit találtam erről:
Egy általános nemlineáris dinamikus rendszermodell által megvalósított be-kimeneti kapcsolat − diszkrét idejű rendszerek esetében − az alábbi általános formában adható meg:
Az kapcsolat a modell struktúráját rögzíti, ahol az ún. regresszorvektor, k az időindex, pedig a rendszer paramétereit összefoglaló vektor. A regresszorvektor feladata megadni, hogy a kimenet előállításában a modellezendő rendszer, folyamat milyen régebbi bemeneti és kimeneti adatait használjuk fel.
Többi itt: http://www.mit.bme.hu/books/neuralis/ch08s01
Lipschitz: http://www.mit.bme.hu/books/neuralis/ch08s06
Regresszorvektor meghatározásának a két fő lépése (+?): A regresszorvektor-választás egyfelől a nemlineáris dinamikus modellosztály megválasztását jelenti (NFIR, NARX (ezek kitüntetettek, mert előrecsatoltak) +NOE, NARMAX...), másfelől a modell-fokszám meghatározását is igényli. A bemenet-kimenet reprezentációk mellett a modell-fokszám a regresszorvektor konstrukciójánál figyelembe vett régebbi bemeneti és/vagy kimeneti, stb. értékek számát jelenti. Mivel a modell-fokszám előzetesen általában nem ismert, célszerű különböző modell-fokszámok mellett különböző komplexitású modellek létrehozása és valamilyen kritérium szerinti kiértékelése.
Lipschitz index jelölések:

a

ahol Értelmezés sikertelen (formai hiba): {\displaystyle i\neq j;        i,j=1,2,   …,P}

Lipschitz hányadosok közül a k-adik legnagyobb érték, N a bemeneti változók száma (a regresszorvektor dimenziója), p pedig egy alkalmasan megválasztott pozitív szám, rendszerint p = 0,01P ~ 0,02P. (P a szokásos jelölésnek megfelelően a tanítópontok száma).

4. Az alábbi két bemenetű - egy kimenetű visszacsatolt hálót szeretné BPTT módszerrel tanítani. Milyen kiterített hálót kap, ha 3 időlépésre kell elvégeznie a kiterítést. Adja meg a szaggatott vonallal jelzett súly (w) tanítási összefüggését. (10p)
info: http://www.mit.bme.hu/books/neuralis/ch08s04
5. Mit jelentenek a szupportvektorok egy osztályozós SVM-nél? Lehet-e valamit mondani (pl. legalább alsó és felső korlátokat) egy N-változós osztályozási feladatnál, ha a tanító pontok száma P, a szupport vektorok számára hard margós (gyengítő változó nélküli) () lineáris és () nem lineáris esetben? Indokolja a választ! (5p)
Egy hosszú bevezetés a szupportvektorokhoz:
A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép az "optimális" elválasztó felületet határozza meg (a két osztályba tartozó tanítópontok között, a tanítópontoktól a lehető legnagyobb távolságra helyezkedik el a "felület"). Ennek a meghatározásához a következő kell:

A feladatot feltételes szélsőérték-keresési problémaként tudjuk megfogalmazni, ahol a feltételek egyenlőtlenségek formájában vannak megadva. A feltételes szélsőérték-keresési feladat megoldását egy Lagrange kritérium megoldásával kereshetjük:

Az optimalizálási feladat megoldásához a Karush-Kuhn-Tucker (KKT) elmélet szerint a fenti Lagrange kritériumot kell minimalizálni w és b szerint és maximalizálni szerint, vagyis a Lagrange kritérium által definiált kritériumfelület nyeregpontját (saddle point) kell meghatározni.
A feltételes optimalizálási feladat megoldásához felírható annak duális alakja, melyben már csak az Lagrange multiplikátorok az ismeretlenek. ... A linkben a 6.41-es képlet, majd: Azokat a tanítópontokat, amelyek résztvesznek a megoldás kialakításában, amelyekhez tartozó Lagrange multiplikátorok értéke nem nulla, szupport vektoroknak (support vectors) nevezzük. A szupport vektor gépek tehát olyan kernel gépek, ahol a kernel tér tényleges dimenziója nem a tanítópontok számával (P), hanem a szupport vektorok számával (Ps) egyezik meg.
Bővebben erről: http://www.mit.bme.hu/books/neuralis/ch06s03
A második kérdés nem valami pontos, de utólag megtekintésről kiderült, hogy a szupport vektorok számára kell korlát. Alsó korlát 2, felső korlát P, azaz a tanítópontok száma. Lineáris és nem lineáris esetben is (nem lineáris esetben ugye transzformáljuk magunkat és lineáris lesz).


6. Meg lehet-e határozni a CMAC háló gradiens alapú iteratív tanításnál a konvergenciát biztosító tanulási tényezőt ((mü) bátorsági faktor), ha az összes tanító pontot ismeri és nem alkalmaz tömörítő leképezést? Ha igen, adja meg (mü) összefüggését, ha nem indokolja meg, hogy miért nem. (8p)
Röviden most így pótvizsga előtt:
A lényeg, hogy CMAC kimenetében Adaline-ok vannak, amikre tudjuk, hogy 0<mű<1/lambda_max akkor konvergens. Na de itt az autokorrelációs mátrix (Adaline-nál R), nem x*xtranszponált várható értékéből jön, hanem az asszociációs vektorból valahogy. Ez a valahogy talán az A mátrixokból létrehozott új auto korrelációs mátrix lesz.


7. Mi a szemantikailag specifikált KQML lényege? (4p)


8. Beszéltünk mesterséges intelligenciában racionális ágensekről. Mit takar a "beszéd aktus, mint racionális cselekvés" megközelítés? (4p)


9. Az elosztott problémamegoldás körében fellépő konfliktusok feloldására milyen elemi protokollokat alakítottak ki? Mi a szerepük konfliktusfeloldás szempontjából? (4p)
10. Mi a Nash-egyensúly? Hogyan jelentkezik a fogoly paradoxonnál? (4p)


11. Mi a Borda-szavazás lényege és mi a fő problémája? (4p)
Jean-Charles de Borda javasolta 1770-ben a Borda-számlálást a Francia Tudományos Akadémia tagjainak megválasztására. A Borda-számlálás egy egyszerű rangsorolásos módszer, ahol az alternatívákat pontozzák a rangsorolásuk szerint. A hasonló módszereket együtt pozíciós szavazórendszernek nevezik. darab jelöltünk van, mindenki rangsorol, alternatívánként összegzés. Eredmény az alternatívák teljes, tranzitív szociális rendezése.