„KoopKerdesekZHOssz04” változatai közötti eltérés

Új oldal, tartalma: „{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz04}} '''perceptron tanítás 3 tényezővel: alfa1=10; alfa2=0.1; alfa3=-3; melyiket választaná? És Adaline esetében? H…”
 
Adaniel (vitalap | szerkesztései)
aNincs szerkesztési összefoglaló
2. sor: 2. sor:


'''perceptron tanítás 3 tényezővel: alfa1=10; alfa2=0.1; alfa3=-3; melyiket választaná? És Adaline esetében? Ha egyik sem helyes javasoljon új tényezőt, és indokolja is meg!'''
'''perceptron tanítás 3 tényezővel: alfa1=10; alfa2=0.1; alfa3=-3; melyiket választaná? És Adaline esetében? Ha egyik sem helyes javasoljon új tényezőt, és indokolja is meg!'''
__TODO__


'''Egy RBF-nél súlyok helyett FIR szűrők vannak, adja meg 1 FIR szűrő együtthatóinak módosító összefüggését!'''
'''Egy RBF-nél súlyok helyett FIR szűrők vannak, adja meg 1 FIR szűrő együtthatóinak módosító összefüggését!'''
__TODO__


'''Implikációt meg lehet-e tanítani perceptronnak, adaline-nak?'''
'''Implikációt meg lehet-e tanítani perceptronnak, adaline-nak?'''
14. sor: 18. sor:


'''R = ((0.5 0) (0 0.2)) esetén az LMS eljárás konvergens-e? Vázlatosan rajzolja fel a kritériumfelület szintvonalait!'''
'''R = ((0.5 0) (0 0.2)) esetén az LMS eljárás konvergens-e? Vázlatosan rajzolja fel a kritériumfelület szintvonalait!'''
__TODO__


'''Milyen modellosztályok esetén használható fokszámbecslése a Lipschitz index? Lipschitz index definíciója (Lq^(N) = ...) meg volt adva - értelmezze, magyarázza meg az egyes betűk jelentését!'''
'''Milyen modellosztályok esetén használható fokszámbecslése a Lipschitz index? Lipschitz index definíciója (Lq^(N) = ...) meg volt adva - értelmezze, magyarázza meg az egyes betűk jelentését!'''
A Lipschitz index a mesterséges neurális hálók különböző dinamikus modellosztályainak fokszámának becslésére használandó. Az NFIR és az NARX modellosztályok esetén lehet használni. Ez egy heurisztikus eljárás, ahol figyelembe kell venni a Lipschitz hányadost és a regresszorvektor dimenzióját és egy alkalmasan megválasztott pozitív egész számot, amely a tanítópontok számának valamilyen lineáris kombinációja. A hányadosok közül a szummázási folyamatban fokozatosan növekvő számút kell figyelembe venni.
<math> Lq^{(N)}=(\Pi_{k=1}^{p}\sqrt{N}   q^{(N)}(k))^{1/p} </math>
ahol <math> q^{(N)}(k) </math> a
<math> q^{(N)}_{ij} = \frac {|y(i)-y(j)|} {|x(i)-x(j)|}</math> ahol <math> i\neq j;        i,j=1,2,   …,P</math>
Lipschitz hányadosok közül a k-adik legnagyobb érték, N a bemeneti változók száma (a regresszorvektor dimenziója), p pedig egy alkalmasan megválasztott pozitív szám, rendszerint p = 0,01P ~ 0,02P. (P a szokásos jelölésnek megfelelően a tanítópontok száma).


'''Mi a momentum eljárás és milyen esetben alkalmazható sikerrel?'''
'''Mi a momentum eljárás és milyen esetben alkalmazható sikerrel?'''
'''Mi a momentum módszer, milyen célból alkalmazzák, és mely hálótípusoknál alkalmazható? Minden ismert hálótípusra adja meg és indokolja is meg a választ!'''


* A momentum módszer olyan heurisztikus eljárás, ahol az egyes lépésekben a súlymódosítás meghatározása két részből áll. Először a gradiens módszernek megfelelően meghatározunk egy súly módosító értéket, azonban nem ezzel végezzük el a korrekciót, hanem még figyelembe vesszük az előző módosítás hatását is. A súlymódosítás ennek megfelelően:
* A momentum módszer olyan heurisztikus eljárás, ahol az egyes lépésekben a súlymódosítás meghatározása két részből áll. Először a gradiens módszernek megfelelően meghatározunk egy súly módosító értéket, azonban nem ezzel végezzük el a korrekciót, hanem még figyelembe vesszük az előző módosítás hatását is. A súlymódosítás ennek megfelelően:
25. sor: 43. sor:
ahol <math> {\eta}_{} </math> az ún. momentum együttható, amelynek értéke 0 és 1 közötti kell legye (gyakori választás a 0.8 körüli érték).
ahol <math> {\eta}_{} </math> az ún. momentum együttható, amelynek értéke 0 és 1 közötti kell legye (gyakori választás a 0.8 körüli érték).
* A momentum módszer különösen kedvező, ha a hibafelületen keskeny völgy húzódik végig, és a momentumtag nélkül a megoldás felé ezen völgy környezetében túl sok iteráció megtételével haladnánk, és MLP-nél alkalmazható. A módszer alkalmazásával lényegében azonos hibahatár elérése kevesebb számítással, kevesebb idő alatt.
* A momentum módszer különösen kedvező, ha a hibafelületen keskeny völgy húzódik végig, és a momentumtag nélkül a megoldás felé ezen völgy környezetében túl sok iteráció megtételével haladnánk, és MLP-nél alkalmazható. A módszer alkalmazásával lényegében azonos hibahatár elérése kevesebb számítással, kevesebb idő alatt.
'''Mi a momentum módszer, milyen célból alkalmazzák, és mely hálótípusoknál alkalmazható? Minden ismert hálótípusra adja meg és indokolja is meg a választ!'''


'''Van egy MLP hálózatunk. A nagy (vastag szaggatott) nyíllal bejelölt súly módosító összefüggéseit határozza meg, ha backprop eljárást alkalmaz.'''
'''Van egy MLP hálózatunk. A nagy (vastag szaggatott) nyíllal bejelölt súly módosító összefüggéseit határozza meg, ha backprop eljárást alkalmaz.'''
41. sor: 57. sor:
* A másodikra használnék SVM-et, mivel a kevés pont, sok dimenzió miatt elég valószínű, hogy meg tudja találni a nemlineáris elválasztó-egyenest, amivel az operál (állítólag). Hogy az elsőre használnék-e SVM-et.. talán a sok tanítópont miatt a kernelmátrix (ami kell a QP-hoz) nagyon nagy lenne, akkor már inkább az MLP.  
* A másodikra használnék SVM-et, mivel a kevés pont, sok dimenzió miatt elég valószínű, hogy meg tudja találni a nemlineáris elválasztó-egyenest, amivel az operál (állítólag). Hogy az elsőre használnék-e SVM-et.. talán a sok tanítópont miatt a kernelmátrix (ami kell a QP-hoz) nagyon nagy lenne, akkor már inkább az MLP.  


'''Adja meg röviden a [[BackPropagation]] Through Time (BPTT) eljárás működését! Milyen hálónál alkalmazható, és mik az előnyei, illetve hátrányai az eljárásnak?'''
'''Adja meg röviden a BackPropagation Through Time (BPTT) eljárás működését! Milyen hálónál alkalmazható, és mik az előnyei, illetve hátrányai az eljárásnak?'''
 
Olyan neurális hálózatokra melyek rekurrensek a back propagation algoritmusnak létezik kiterjesztése, mely az időbeli back propagation nevet viseli. Az algoritmus során a hálózatot egy előrecsatolt hálózatba transzformáljuk, olyan formában, hogy a hálózat egy adott időbeli állapota az új hálózat egy rétege lesz. Az előrecsatolt hálózatban csak a rétegek között vannak kapcsolatok, a rétegen belül nincsenek, ezért az eredeti hálózat felépítését úgy transzformáljuk, hogy a neuronok közötti kapcsolatok a következő réteg megfelelő neuronjához tartoznak. Például ha az i-ik neuron a j-ik neuronhoz wi,j súllyal van kapcsolva, akkor minden n-re az n-ik réteg i-ik neuronja az n + 1 –ik réteg j-ik neuronjához wi,j súllyal fog kapcsolódni. Ezeket mutatja a 8.6. ábra. http://mialmanach.mit.bme.hu/neuralis/ch08s04


'''Mutassa meg, hogy az EXOR probléma megoldható egy olyan RBF hálózattal, melynek két Gauss rejtett neuronja van, ahol a bázisfüggvények középpontjai [0 0] és [1 1]''' <br />
'''Mutassa meg, hogy az EXOR probléma megoldható egy olyan RBF hálózattal, melynek két Gauss rejtett neuronja van, ahol a bázisfüggvények középpontjai [0 0] és [1 1]''' <br />
Könyvből:<br/>
Könyvből:<br/>
{{InLineImageLink|Infoszak|KoopKerdesekZHOssz04|ktr_xor.png}}<br />
http://www.mit.bme.hu/books/neuralis/ch05s01 (5.1.4)
http://www.mit.bme.hu/books/neuralis/ch05s01 (5.1.4)


52. sor: 69. sor:
Súlyok kezdeti értéke: úgy kell indítani, hogy minden neuron a meredek részben legyen
Súlyok kezdeti értéke: úgy kell indítani, hogy minden neuron a meredek részben legyen


-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.<br/>
-- [[BartokFerenc|Főnök]] - 2012.06.03.
-- [[BartokFerenc|Főnök]] - 2012.06.03.<br/>
--asztalosdani 2013. június 6., 13:09 (UTC)




[[Category:Infoszak]]
[[Category:Infoszak]]
A lap eredeti címe: „https://vik.wiki/KoopKerdesekZHOssz04