<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="hu">
	<id>https://vik.wiki/index.php?action=history&amp;feed=atom&amp;title=KoopKerdesekZHOssz05</id>
	<title>KoopKerdesekZHOssz05 - Laptörténet</title>
	<link rel="self" type="application/atom+xml" href="https://vik.wiki/index.php?action=history&amp;feed=atom&amp;title=KoopKerdesekZHOssz05"/>
	<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz05&amp;action=history"/>
	<updated>2026-05-16T16:02:56Z</updated>
	<subtitle>Az oldal laptörténete a wikiben</subtitle>
	<generator>MediaWiki 1.43.8</generator>
	<entry>
		<id>https://vik.wiki/index.php?title=KoopKerdesekZHOssz05&amp;diff=139464&amp;oldid=prev</id>
		<title>Unknown user: Új oldal, tartalma: „{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz05}}  &#039;&#039;&#039;Származtassa a CMAC hálózat súlyvektorának analitikus megoldását. Mutassa meg, hogy a megoldás megfelelteth…”</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz05&amp;diff=139464&amp;oldid=prev"/>
		<updated>2012-10-21T20:41:24Z</updated>

		<summary type="html">&lt;p&gt;Új oldal, tartalma: „{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz05}}  &amp;#039;&amp;#039;&amp;#039;Származtassa a CMAC hálózat súlyvektorának analitikus megoldását. Mutassa meg, hogy a megoldás megfelelteth…”&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Új lap&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz05}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Származtassa a CMAC hálózat súlyvektorának analitikus megoldását. Mutassa meg, hogy a megoldás megfeleltethető a Wiener-Hopf egyenlet megoldásának. Adja meg a két összefüggés kapcsolatát!&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
* A CMAC súlyainak meghatározásához a következő egyenletet kell megoldani: &amp;lt;math&amp;gt; \underline{\underline{A}}\underline{w} = \underline{d} {} &amp;lt;/math&amp;gt;, ahol w a súlyok oszlopvektora, d a tanítópontokban kívánt kimenetekből álló oszlopvektor. Az A mátrix azt írja le, melyik tanítópont melyik neuronokat aktiválja (vagyis melyik tartományokba esik bele). Az i. sor j. eleme adja meg, hogy az i. tanítópont a j. neuront aktiválja-e, a baloldalon álló szorzat a tanítópontok tényleges aktivációinak oszlopvektora.&lt;br /&gt;
* Az egyenletet általános esetben nem oldható meg egzaktul, viszont megkereshető az a súlyvektor, amire a legkisebb lesz a négyzetes hiba: &lt;br /&gt;
&amp;lt;math&amp;gt; {\left| \left| \underline{\underline{A}}\underline{w}-\underline{d} \right| \right| }^2 = (\underline{\underline{A}}\underline{w}-\underline{d})^T (\underline{\underline{A}}\underline{w}-\underline{d}) {} &amp;lt;/math&amp;gt;&lt;br /&gt;
A minimum megkereséséhez tekintsük a kifejezést w elemei függvényének, és keressük meg azt a helyet, ahol a gradiens 0. Belátható, hogy a gradiens &amp;lt;math&amp;gt; 2 \underline{\underline{A}}^{T} \underline{\underline{A}} \underline{w} - 2 \underline{\underline{A}}^{T} \underline{d} {} &amp;lt;/math&amp;gt;, a nullhelyben pedig &amp;lt;math&amp;gt; \underline{w} = (\underline{\underline{A}}^{T} \underline{\underline{A}})^{-1} \underline{\underline{A}}^{T} \underline{d} {} &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Hasonlítsa össze a CMAC és az RBF hálózatot a tanulás módja, az approximációs képesség és a háló komplexitása tekintetében!&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;A hálól egyszerűsítése érdekében gyakran alkalmaznak pruning eljárásokat. A pruningolás elősegítésére az alábbi kritériumfüggvényt használhatjuk:&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&amp;lt;math&amp;gt; C(w) = {{(d-y)}^{2}} + \frac{1}{2} \sum_{i} {\left| \left| w i \right| \right|}^{2} {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;, ahol i végigfut a háló összes súlyvektorán. Feltételezve, hogy ezt a kritérium függvényt alkalmazza, határozza meg egy kimenetű MLP kimeneti súlyvektorának tanító összefüggését és egy rejtett rétegbeli súlyvektor tanító összefüggését&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
(A pruning az a folyamat, amikor megpróbáljuk eltávolítani a hálónkból a redundanciát, vagyis a felesleges súlyokat, illetve processzáló elemeket.)&lt;br /&gt;
&lt;br /&gt;
Nem mondom, hogy 100% biztos megoldás de közelít a valósághoz&lt;br /&gt;
Normális esetben a kritériumfüggvényünk így néz ki: &amp;lt;math&amp;gt; C ( w ) = ( d - k ) ^2 {} &amp;lt;/math&amp;gt;, de nekünk, most így néz ki: &amp;lt;math&amp;gt; C(w) = {{(d-y)}^{2}} + \frac{1}{2} \sum_{i} {\left| \left| w i \right| \right|}^{2} {} &amp;lt;/math&amp;gt;, ami nagyon hasonlít egy sima pruning kritériumfüggvényhez (ez a példa a könyvből van: &amp;lt;math&amp;gt; C_r ( w ) = C ( w ) + \lambda \sum_{i,j} | w _{ij} | {}&amp;lt;/math&amp;gt; ahol &amp;lt;math&amp;gt; {\lambda} {}{}{} &amp;lt;/math&amp;gt; a büntető tag relatív súlya). Vagyis észrevehetjük, hogy a pruning büntető tag jelen esetben a &amp;lt;math&amp;gt; \frac{1}{2} \sum_{i} {\left| \left| w i \right| \right|}^{2} {}{} &amp;lt;/math&amp;gt;. Hogy a könyvet idézzem a súly módosítás a deriválás elvégzése után &amp;lt;math&amp;gt; \triangle w = \mu \left( - \frac{\partial C(w) }{ \partial w} \right) - \mu \lambda sgm(w) {}{}{}{}&amp;lt;/math&amp;gt;.&lt;br /&gt;
Na és akkor ez hogyan néz ki rejtett rétegnél, és nem rejtettnél:&lt;br /&gt;
Rejtett:&lt;br /&gt;
&amp;#039;&amp;#039;Valaki?&amp;#039;&amp;#039; &lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;RBF hálóknál a bázisfüggvények általában rendelkeznek beállítható paraméterekkel. Gauss bázisfüggvény esetén milyen paraméterek meghatározására van szükség, és milyen eljárásokat ismer ezen paraméterek meghatározására?&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
* A Gauss függvénynek két paramétere van: a középpontja és a szórása. Ez utóbbi lehet skalár, vagy többdimenziós esetben vektor is (különböző dimenziók mentén más lehet a függvények szórása). (Megjegyzés: magának a hálónak további paramétere, hogy hány bázisfüggvényt használunk.)&lt;br /&gt;
* A középpontok meghatározására használható az ortogonális least squares (OLS) és a K-means módszer. Előbbi kiindul egy egy pontot tartalmazó RBF-ből, majd azt iteratívan bővíti, ha nem elég jó a tanulóképessége (a hozzáveendő középpontokat az ismert tanítópontok közül választja). A K-means csoportokba próbálja osztani a tanítópontokat, és a csoportokhoz egy-egy középpontot illetve bázisfüggvényt rendel.&lt;br /&gt;
* Állítható a szórás értéke is; általában elég tág határok közt változtatható a tanulási képesség rontása nélkül. . Jól használható az adott középpontú bázisfüggvény szórásának, ha vesszük a középponthoz legközelebbi R (R=2-3) másik középpontot, és ezek távolságainak átlagát számoljuk. Ha mindegyik függvényhez azonos szórást akarunk használni, erre is használható a fenti kifejezés (véletlenszerűen kijelölve egy középpontot). &lt;br /&gt;
* Végül mind a középpontok, mind a szórások meghatározására alkalmazhatóak az ellenőrzött tanítási módszerek, pl. gradiens alapú keresés.&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Egy MLP rejtett rétegében lévő neuron súlyvektorának tanító összefüggését származtassa! Hogyan választja meg a tanításnál a &amp;quot;bátorsági faktort&amp;quot;? Meghatározhatók-e analitikus úton is a rejtett neuronok súlyértékei?&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Mi a keresztkiértékelés és mikor használjuk? Milyen változatait ismeri?&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Mekkora a CMAC háló rejtett rétegének komplexitása (a háló súlyainak száma) egydimenziós és N dimenziós esetben, ha C a háló paramétere (az asszociációs vektorban az aktív bitek száma) és &amp;lt;math&amp;gt; {r}_{i} {} &amp;lt;/math&amp;gt; az i-edik bemeneti dimenziónál a lehetséges diszkrét bemeneti értékek száma és bemeneti dimenziótól függetlenül C-szeres lefedést alkalmazunk?&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
* Egydimenziós esetben &amp;lt;math&amp;gt; R = 2^{r_{1}} &amp;lt;/math&amp;gt; a lehetséges bemenetek száma, többdimenziós esetben meg &amp;lt;math&amp;gt; R^{i} = 2^{r_{i}} &amp;lt;/math&amp;gt;, összesen tehát &amp;lt;math&amp;gt; R = \prod_{i}^{N} R^{i} = 2^{r_{i}} &amp;lt;/math&amp;gt; . Természetesen, ha mindenhol a kvantálás mondjuk b, akkor &amp;lt;math&amp;gt; R = 2^{Nb} &amp;lt;/math&amp;gt; (&amp;lt;- ez a képlet ami a könyvben is szerepel).&lt;br /&gt;
* C aktív bit mellet, egy dimenziónál az asszociációs vektor hossza &amp;lt;math&amp;gt; M = R + C - 1  {} &amp;lt;/math&amp;gt;. &lt;br /&gt;
* N dimenziós esetében, amikor lejes a lefedés, vagyis &amp;lt;math&amp;gt; C^{N} {} &amp;lt;/math&amp;gt;-szeres, akkor ez &amp;lt;math&amp;gt; M = \prod_{i}^{N} (r_i + C -1) &amp;lt;/math&amp;gt;, ami meglehetősen nagy. De a kérdés nem erre vonatkozott, hanem arra, amikor C-szeres lefedés van. Ebben az esetben &amp;lt;math&amp;gt; {} M_C = \left \lfloor  \frac{1}{C^{N-1}} \prod_{i}^{N} (r_i + C -1) \right \rfloor &amp;lt;/math&amp;gt;, meg kell említeni, hogy ez is elég nagy.&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Mutassa meg, hogy az EXOR probléma megoldható egy olyan RBF hálózattal, melynek két Gauss rejtett neuronja van, ahol a bázisfüggvények középpontjai [0 0] és [1 1]&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Meghatározható-e egy egykimenetű RBF háló súlyvektora a Wiener-Hopf egyenlet megfelelő változatával? Ha igen, adja meg a megfelelő Wiener-Hopf egyenletet, ha nem, indokolja meg, hogy miért nem.&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Származtassa a CMAC hálózat súlyvektorának analitikus megoldását.&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Osztályozásnál gyakori, hogy négyzetes hibafüggvény &amp;lt;math&amp;gt; C ( w ) = \frac{1}{p} \sum_{i=0}^{p} ( d_i - y_i )^{2} {} &amp;lt;/math&amp;gt; helyett a keresztentrópia hibafüggvényt a &amp;lt;math&amp;gt; C (w) = - \sum_{i=0}^{p} ( d_i ln(y_i) - ( 1 - d_i ) ln( 1 -y_i) ) {} &amp;lt;/math&amp;gt; alkalmazzák. Itt &amp;lt;math&amp;gt; d_i {} &amp;lt;/math&amp;gt; a kívánt kimenet, &amp;lt;math&amp;gt; y_i = sgm ( w^{T} x_i ) = sgm ( s_i) = \frac{1}{1+e^{-s_i}} {} &amp;lt;/math&amp;gt; (az ott lent &amp;lt;math&amp;gt; e^{-s_i} {} &amp;lt;/math&amp;gt; )és &amp;lt;math&amp;gt; p {} &amp;lt;/math&amp;gt; a tanítópontok száma. Határozza meg egy fenti leképzést megvalósító elemi neutron súlyvektorának tanító összefüggését, ha a gradiens módszert és pillanatnyi hiba tanulást alkalmaz!&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Milyen szerepet játszik a C együttható és a &amp;lt;math&amp;gt; \epsilon {} &amp;lt;/math&amp;gt; (epszilon) változó egy osztályzás SVM konstrukciójánál, és milyen szempontok alapján lehet C-t megválasztani?&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Milyen alapvető különbségek vannak egy NOE, és egy NARX architektúra között? Mikor melyiket alkalmazná? Egyes dinamikus neuronháló architektúra tanítására alkalmas az időben kiterítéses alapú BPTT módszer. A NOE és a NARX architektúra közül melyik (melyek) tanítására alkalmas a módszer. Írja le a BPTT tanítási eljárás lépéseit.&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Infoszak]]&lt;/div&gt;</summary>
		<author><name>Unknown user</name></author>
	</entry>
</feed>