<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="hu">
	<id>https://vik.wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Adaniel</id>
	<title>VIK Wiki - Felhasználó közreműködései [hu]</title>
	<link rel="self" type="application/atom+xml" href="https://vik.wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Adaniel"/>
	<link rel="alternate" type="text/html" href="https://vik.wiki/Speci%C3%A1lis:Szerkeszt%C5%91_k%C3%B6zrem%C5%B1k%C3%B6d%C3%A9sei/Adaniel"/>
	<updated>2026-05-02T21:24:29Z</updated>
	<subtitle>Felhasználó közreműködései</subtitle>
	<generator>MediaWiki 1.43.8</generator>
	<entry>
		<id>https://vik.wiki/index.php?title=M%C3%A9rn%C3%B6kinformatikus_MSc&amp;diff=179982</id>
		<title>Mérnökinformatikus MSc</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=M%C3%A9rn%C3%B6kinformatikus_MSc&amp;diff=179982"/>
		<updated>2014-03-23T09:59:12Z</updated>

		<summary type="html">&lt;p&gt;Adaniel: /* Szakirányok */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;*[https://www.vik.bme.hu/files/00004020.pdf Az MSc képzés hivatalos programja (2013)]&lt;br /&gt;
*Felvételi vizsga: [[Mérnök informatikus BSc záróvizsga | korábbi évek vizsgasorai]]&lt;br /&gt;
&lt;br /&gt;
==Szakirányok==&lt;br /&gt;
A szakirányok mellett szerepel a Felsőbb matematika és Rendszeroptimalizálás tantárgy kódja (A / B / C / D // R), illetve az ennek megfelelő tárgyak a félévek első és második felében.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; border=&amp;quot;1&amp;quot;&lt;br /&gt;
! rowspan=&amp;quot;2&amp;quot; | Szakirány&lt;br /&gt;
! rowspan=&amp;quot;2&amp;quot; | Kód&lt;br /&gt;
! colspan=&amp;quot;2&amp;quot; | Tavaszi félév&lt;br /&gt;
! rowspan=&amp;quot;2&amp;quot; | Kód&lt;br /&gt;
! colspan=&amp;quot;2&amp;quot; | Őszi félév&lt;br /&gt;
|-&lt;br /&gt;
! Első félblokk&lt;br /&gt;
! Második félblokk&lt;br /&gt;
! Első félblokk&lt;br /&gt;
! Második félblokk&lt;br /&gt;
|-&lt;br /&gt;
| [[Alkalmazott informatika szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| D || [[Sztochasztika I.]]                || [[Sztochasztika | Sztochasztika II.]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Autonóm irányító rendszerek és robotok szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| B || [[Analízis II. (MSc)|Analízis II.]] || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Hálózatok és szolgáltatások szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| A || [[Analízis I. (MSc)|Analízis I.]]   || [[Sztochasztika | Sztochasztika II.]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Hírközlő rendszerek biztonsága szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Intelligens rendszerek szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Médiainformatika szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| D || [[Sztochasztika I.]]                || [[Sztochasztika | Sztochasztika II.]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Rendszerfejlesztés szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Számításelmélet szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Szolgáltatásbiztos rendszertervezés szakirány]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| R || [[Rendszeroptimalizálás]]           || [[Rendszeroptimalizálás]]&lt;br /&gt;
|style=&amp;quot;text-align:right;&amp;quot;| C || [[Matematikai logika]]              || [[Alkalmazott algebra]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; border=&amp;quot;1&amp;quot;&lt;br /&gt;
|+ Levelezőlisták&lt;br /&gt;
| &#039;&#039;Mérnök informatikus MSc&#039;&#039;                           || infomsc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Alkalmazott informatika szakirány]]                 || alkinfo-msc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Autonóm irányító rendszerek és robotok szakirány]]  || airer-msc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Hálózatok és szolgáltatások szakirány]]             || inet-msc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Hírközlő rendszerek biztonsága szakirány]]          || rebisz{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Intelligens rendszerek szakirány]]                  || int-msc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Médiainformatika szakirány]]                        || mediamsc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Rendszerfejlesztés szakirány]]                      || rendszermsc{{kukac}}sch.bme.hu&lt;br /&gt;
|-&lt;br /&gt;
| [[Számításelmélet szakirány]]                         || &lt;br /&gt;
|-&lt;br /&gt;
| [[Szolgáltatásbiztos rendszertervezés szakirány]]     || szolgbiztrt{{kukac}}sch.bme.hu&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Közös tantárgyak==&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot; border=&amp;quot;1&amp;quot;&lt;br /&gt;
! rowspan=&amp;quot;2&amp;quot; | Szakirány&lt;br /&gt;
! colspan=&amp;quot;2&amp;quot; | Tavaszi félév&lt;br /&gt;
! colspan=&amp;quot;2&amp;quot; | Őszi félév&lt;br /&gt;
|-&lt;br /&gt;
! Első tantárgy&lt;br /&gt;
! Második tantárgy&lt;br /&gt;
! Első tantárgy&lt;br /&gt;
! Második tantárgy&lt;br /&gt;
|-&lt;br /&gt;
| [[Alkalmazott informatika szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Autonóm irányító rendszerek és robotok szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Hálózatok és szolgáltatások szakirány]]&lt;br /&gt;
|| [[Tömegkiszolgálás]]   || [[Adatbiztonság]] || [[Szoftverarchitektúrák]] || [[Információelmélet]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Hírközlő rendszerek biztonsága szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Információelmélet]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Intelligens rendszerek szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Médiainformatika szakirány]]&lt;br /&gt;
|| [[Tömegkiszolgálás]]   || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Rendszerfejlesztés szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Számításelmélet szakirány]]&lt;br /&gt;
|| [[Tömegkiszolgálás]]   || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Információelmélet]]&lt;br /&gt;
|-&lt;br /&gt;
| [[Szolgáltatásbiztos rendszertervezés szakirány]]&lt;br /&gt;
|| [[Formális módszerek]] || [[Adatbiztonság]] || [[Nyelvek és automaták]]  || [[Szoftverarchitektúrák]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Gazdasági és humán ismeretek==&lt;br /&gt;
*Kötelező:&lt;br /&gt;
** [[Mérnöki menedzsment]]&lt;br /&gt;
*Kötelezően válaszható (3 db):&lt;br /&gt;
** [[Befektetések]]&lt;br /&gt;
** [[Érvelés, tárgyalás, meggyőzés]]&lt;br /&gt;
** [[Információs társadalom joga]]&lt;br /&gt;
** [[Minőségmenedzsment]]&lt;br /&gt;
** [[Projektmenedzsment]]&lt;br /&gt;
** [[Vállalati jog]]&lt;br /&gt;
** [[Vezetői számvitel]]&lt;br /&gt;
&lt;br /&gt;
==Szakmai törzsanyag kötelezően választható ismeretei==&lt;br /&gt;
*[[Szakmai törzsanyag kötelezően választható ismeretei - Mérnök informatikus MSc | Szakmai törzsanyag kötelezően választható ismeretei]] - szakirány ismeretek elmélyítését szolgáló tantárgyak, mellékszakirány tantárgyak, szakmai ismeretbővítő tantárgyak.&lt;br /&gt;
*Ebből a tárgycsoportból kell 12 kreditnyit teljesíteni.&lt;br /&gt;
*Ez évről évre változik, az aktuális lista a Neptunban elérhető a megfelelő szűréssel. Néha frissítik a vik.bme-n, de nem szokták, neptunban a biztos (amit neked kötválnak ír).&lt;br /&gt;
&lt;br /&gt;
&amp;lt;noinclude&amp;gt;[[Kategória:Mérnök informatikus MSc]]&amp;lt;/noinclude&amp;gt;&lt;/div&gt;</summary>
		<author><name>Adaniel</name></author>
	</entry>
	<entry>
		<id>https://vik.wiki/index.php?title=KoopKerdesekZHOssz04&amp;diff=167388</id>
		<title>KoopKerdesekZHOssz04</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz04&amp;diff=167388"/>
		<updated>2013-06-06T13:09:30Z</updated>

		<summary type="html">&lt;p&gt;Adaniel: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz04}}&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;perceptron tanítás 3 tényezővel: alfa1=10; alfa2=0.1; alfa3=-3; melyiket választaná? És Adaline esetében? Ha egyik sem helyes javasoljon új tényezőt, és indokolja is meg!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
__TODO__&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Egy RBF-nél súlyok helyett FIR szűrők vannak, adja meg 1 FIR szűrő együtthatóinak módosító összefüggését!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
__TODO__&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Implikációt meg lehet-e tanítani perceptronnak, adaline-nak?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Megoldás van a docxben, csak át kell másolni&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Rosenblatt perceptronokból lehet-e MLP-t építeni, ha igen, hogyan, ha nem, miért nem?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* A szignum függvény nem deriválható, de ha lecseréljük szigmoidra, akkor máris deriválható, így hazsnálható a Back-Propagation, vagyis akkor építhető belőle MLP.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;R = ((0.5 0) (0 0.2)) esetén az LMS eljárás konvergens-e? Vázlatosan rajzolja fel a kritériumfelület szintvonalait!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
__TODO__&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Milyen modellosztályok esetén használható fokszámbecslése a Lipschitz index? Lipschitz index definíciója (Lq^(N) = ...) meg volt adva - értelmezze, magyarázza meg az egyes betűk jelentését!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
A Lipschitz index a mesterséges neurális hálók különböző dinamikus modellosztályainak fokszámának becslésére használandó. Az NFIR és az NARX modellosztályok esetén lehet használni. Ez egy heurisztikus eljárás, ahol figyelembe kell venni a Lipschitz hányadost és a regresszorvektor dimenzióját és egy alkalmasan megválasztott pozitív egész számot, amely a tanítópontok számának valamilyen lineáris kombinációja. A hányadosok közül a szummázási folyamatban fokozatosan növekvő számút kell figyelembe venni.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; Lq^{(N)}=(\Pi_{k=1}^{p}\sqrt{N}   q^{(N)}(k))^{1/p} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ahol &amp;lt;math&amp;gt; q^{(N)}(k) &amp;lt;/math&amp;gt; a&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; q^{(N)}_{ij} = \frac {|y(i)-y(j)|} {|x(i)-x(j)|}&amp;lt;/math&amp;gt; ahol &amp;lt;math&amp;gt; i\neq j;        i,j=1,2,   …,P&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lipschitz hányadosok közül a k-adik legnagyobb érték, N a bemeneti változók száma (a regresszorvektor dimenziója), p pedig egy alkalmasan megválasztott pozitív szám, rendszerint p = 0,01P ~ 0,02P. (P a szokásos jelölésnek megfelelően a tanítópontok száma).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a momentum eljárás és milyen esetben alkalmazható sikerrel?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a momentum módszer, milyen célból alkalmazzák, és mely hálótípusoknál alkalmazható? Minden ismert hálótípusra adja meg és indokolja is meg a választ!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* A momentum módszer olyan heurisztikus eljárás, ahol az egyes lépésekben a súlymódosítás meghatározása két részből áll. Először a gradiens módszernek megfelelően meghatározunk egy súly módosító értéket, azonban nem ezzel végezzük el a korrekciót, hanem még figyelembe vesszük az előző módosítás hatását is. A súlymódosítás ennek megfelelően:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \delta w ( k + 1 ) = \mu ( - {\triangledown} ( k ) ) + \eta \delta w ( {k} )  &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ahol &amp;lt;math&amp;gt; {\eta}_{} &amp;lt;/math&amp;gt; az ún. momentum együttható, amelynek értéke 0 és 1 közötti kell legye (gyakori választás a 0.8 körüli érték).&lt;br /&gt;
* A momentum módszer különösen kedvező, ha a hibafelületen keskeny völgy húzódik végig, és a momentumtag nélkül a megoldás felé ezen völgy környezetében túl sok iteráció megtételével haladnánk, és MLP-nél alkalmazható. A módszer alkalmazásával lényegében azonos hibahatár elérése kevesebb számítással, kevesebb idő alatt.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Van egy MLP hálózatunk. A nagy (vastag szaggatott) nyíllal bejelölt súly módosító összefüggéseit határozza meg, ha backprop eljárást alkalmaz.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Ehhez sincs kép...&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Oszályozási feladatra akarunk LS Szupport Vektor Gépet használni. Fogalmazza meg a kritériumfüggvényt és a Lagrange egyenletet. Milyen alapgondolatot használ az eljárás, hogy a Lagrange egyenletből a másodlagos egyenlethez eljussunk? Mi lesz a másodlagos egyenlet?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Szkennelt megoldás a docxben&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Van 10000 50 dimenziós adata, illetve 100 10000 dimenziós adata, melyekkel tanuló hálót akar konstruálni. Két lehetőség közül választhat: MLP-t vagy SVM-et alkalmaz. Az adott esetekben milyen szempontokat venne figyelembe, és mit választana? Részletesen indokolja meg a választást.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Az első esetre MLP-t használnék, mert sok a tanító pont a dimenziókhoz képset is (bár nem tudom 50 dimenzióhoz mi számít soknak igazán), jól meg lehet tanítani a hálót meg minősíteni is. A másodikra MLP-t nem alkalmaznék, mert nagyon kevés a pont a dimenziószámhoz képest, és szinte biztos a túl/sehogysem tanulás.&lt;br /&gt;
* A másodikra használnék SVM-et, mivel a kevés pont, sok dimenzió miatt elég valószínű, hogy meg tudja találni a nemlineáris elválasztó-egyenest, amivel az operál (állítólag). Hogy az elsőre használnék-e SVM-et.. talán a sok tanítópont miatt a kernelmátrix (ami kell a QP-hoz) nagyon nagy lenne, akkor már inkább az MLP. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Adja meg röviden a BackPropagation Through Time (BPTT) eljárás működését! Milyen hálónál alkalmazható, és mik az előnyei, illetve hátrányai az eljárásnak?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Olyan neurális hálózatokra melyek rekurrensek a back propagation algoritmusnak létezik kiterjesztése, mely az időbeli back propagation nevet viseli. Az algoritmus során a hálózatot egy előrecsatolt hálózatba transzformáljuk, olyan formában, hogy a hálózat egy adott időbeli állapota az új hálózat egy rétege lesz. Az előrecsatolt hálózatban csak a rétegek között vannak kapcsolatok, a rétegen belül nincsenek, ezért az eredeti hálózat felépítését úgy transzformáljuk, hogy a neuronok közötti kapcsolatok a következő réteg megfelelő neuronjához tartoznak. Például ha az i-ik neuron a j-ik neuronhoz wi,j súllyal van kapcsolva, akkor minden n-re az n-ik réteg i-ik neuronja az n + 1 –ik réteg j-ik neuronjához wi,j súllyal fog kapcsolódni. Ezeket mutatja a 8.6. ábra. http://mialmanach.mit.bme.hu/neuralis/ch08s04&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mutassa meg, hogy az EXOR probléma megoldható egy olyan RBF hálózattal, melynek két Gauss rejtett neuronja van, ahol a bázisfüggvények középpontjai [0 0] és [1 1]&#039;&#039;&#039; &amp;lt;br /&amp;gt;&lt;br /&gt;
Könyvből:&amp;lt;br/&amp;gt;&lt;br /&gt;
http://www.mit.bme.hu/books/neuralis/ch05s01 (5.1.4)&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Batch-tanítás&#039;&#039;&#039;&lt;br /&gt;
* Minden pontra kiszámoljuk a szükséges módosításokat, de nem hajtjuk végre, majd átlagoljuk a módosításokat és egy lépésben hajtjuk végre a végén.-&amp;gt;lokális minimumok lesznek-&amp;gt;pontonkénti tanulásnál direkt zajt adunk hozzá ezek elkerülésére.&lt;br /&gt;
Súlyok kezdeti értéke: úgy kell indítani, hogy minden neuron a meredek részben legyen&lt;br /&gt;
&lt;br /&gt;
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.&amp;lt;br/&amp;gt;&lt;br /&gt;
-- [[BartokFerenc|Főnök]] - 2012.06.03.&amp;lt;br/&amp;gt;&lt;br /&gt;
--asztalosdani 2013. június 6., 13:09 (UTC)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Infoszak]]&lt;/div&gt;</summary>
		<author><name>Adaniel</name></author>
	</entry>
	<entry>
		<id>https://vik.wiki/index.php?title=KoopKerdesekZHOssz03&amp;diff=167371</id>
		<title>KoopKerdesekZHOssz03</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz03&amp;diff=167371"/>
		<updated>2013-06-06T09:35:20Z</updated>

		<summary type="html">&lt;p&gt;Adaniel: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz03}}&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi az alapgondolata az Ortogonal Least Square (OLS) eljárásnak? Milyen hálócsaládnál alkalmazható és mire szolgál?&#039;&#039;&#039;&lt;br /&gt;
* Alapvetően RBF kapcsán esett róla szó.&lt;br /&gt;
* &amp;quot;Az ortogonális legkisebb négyzetes hibájú (OLS) eljárás iteratív módon választ középpontokat úgy, hogy közben figyelembe veszi a háló képességét is. Ez azt jelenti, hogy a háló méretét lépésről lépésre növeljük, újabb és újabb bázisfüggvények bekapcsolásával egészen addig, amíg megfelelő teljesítőképességet el nem érünk.&amp;quot;&lt;br /&gt;
* A Gauss függvénynek két paramétere van: a középpontja és a szórása. Ez utóbbi lehet skalár, vagy többdimenziós esetben vektor is &lt;br /&gt;
* A középpontok meghatározására használható az ortogonális least squares (OLS) és a K-means módszer. Előbbi kiindul egy egy pontot tartalmazó RBF-ből, majd azt iteratívan bővíti, ha nem elég jó a tanulóképessége (a hozzáveendő középpontokat az ismert tanítópontok közül választja). A K-means csoportokba próbálja osztani a tanítópontokat, és a csoportokhoz egy-egy középpontot illetve bázisfüggvényt rendel&lt;br /&gt;
* R heurisztikus szórás választás: általában elég tág határok közt változtatható a tanulási képesség rontása nélkül.. Jól használható az adott középpontú bázisfüggvény szórásának, ha vesszük a középponthoz legközelebbi R (R=2-3) másik középpontot, és ezek távolságainak átlagát számoljuk. Ha mindegyik függvényhez azonos szórást akarunk használni, erre is használható a fenti kifejezés (véletlenszerűen kijelölve egy középpontot). &lt;br /&gt;
* Végül mind a középpontok, mind a szórások meghatározására alkalmazhatóak az ellenőrzött tanítási módszerek, pl. gradiens alapú keresés, viszont fontos megjegyezni, hogy például a szórás hibafelülete nem kvadratikus, így érvényes minden rá, ami az MLP nem kvadratikus hibafelületére.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mit nevezünk túltanulásnak, milyen következménye van, és hogyan lehet védekezni ellene? (minden ismert ellenszert mutasson be)&#039;&#039;&#039;&lt;br /&gt;
* Egy rendszer tanítása során a tanítópontok hibája általában csökkenő jellegű. A hálózat hibája a tanításhoz fel nem használt pontokban szintén csökken (a hálózat az egész függvényt egyre jobban megtanulja). Egy bizonyos pont után viszont, a tanítópontok hibája még mindig csökken, de a többi ponté nőni kezd, mivel a háló a tanítópontok olyan apró részleteit kezdi tanulni, amik az egész függvényre nem igazak, és romlik az általánosító-képesség. &lt;br /&gt;
* Egyik ellenszer a korai megállás: amikor észrevesszük, hogy az ellenőrzéshez használt nem tanító pontokban nőni kezd a hiba, abbahagyjuk a tanítást (hiába lehetne a tanítópontok hibáját még csökkenteni). &lt;br /&gt;
* Regularizáció: A lényege, hogy egyfajta simaságot megkövetelünk, egyfajta az általánosításhoz tartó zajt adunk a tanításhoz, így nem annyira tud nagyon rátanulni a tanítópontokra.&lt;br /&gt;
* Új neuron felvétele: Ha időközben hozzáadunk egy új neuront vagy elveszünk, akkor megváltoztatja a háló egész kimenetét, és a túltanulástól egy ideig a tanulások folyamán az általánosítás felé halad, majd persze megint eljut a túltanulásig. Plusz érdeme, hogy segítségével tudunk lökni a lokális minimumoknál, és a &amp;quot;sekélyebb&amp;quot; területeknél.&lt;br /&gt;
* keresztvalidáció: Lásd lentebb!&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a keresztkiértékelés és mikor használjuk? Milyen változatait ismeri?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Keresztvalidáció vagy más néven keresztkiértékelés: A keresztvalidáció alapvetően azt használja fel, hogy a mintaponthalmazunkat 3 részre osztjuk. A tanítópontok, a kiértékelő pontok, és a tesztelő pontok. A tanítópontok egyértelmű, hogy mit jelent, a kiértékelő pontokkal értékeljük tanítás közben a hálót, vagyis közvetetten befolyásolja a tanítást. A tesztelő pontokat csak a tanítás végén használjuk a tanított háló értékelésére, ezért ezek még közvetetten sem befolyásolják a tanítást. Ez mind szép és jó, de a keresztvalidáció akkor jön szóba, hogyha kevés tanítópontunk van, és nincs erőforrásunk 3 részre osztani, ekkor hogy idézzek: &amp;quot;Ennek során a rendelkezésre álló mintapontokat véletlenszerűen osztjuk k diszjunkt részhalmazra, majd k-1 részhalmazt tanításra, a maradék részhalmazt meg kiértékelésre használjuk. Az eljárást megismételjük az összes részhalmazra úgy, hogy a tanító pontok közül mindig más-más részhalmazt hagyunk ki&amp;quot;...&amp;quot; A hálózat eredő minősítését az egyes kiértékelések átlagaként nyerjük&amp;quot;. Hátránya, hogy sokat kell számolni, előnye, hogy kevés tanítópontnál is jó eredményt ad.&lt;br /&gt;
&#039;&#039;Változatai?&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
*A kereszt kiértékelést a neurális hálók tanításánál alkalmazhatjuk. Ilyenkor egy algoritmus alapján felosztjuk a rendelkezése álló mintapontjainkat K db halmazra. Majd ebből a K halmazból K-1 halmaz pontjait tanítópontként felhasználjuk és a maradék 1 db halmaz pontjait pedig tesztpontként alkalmazzuk. Az eljárást addig kell ismételni, amíg minden halmaz nem szerepelt teszthalmazként. Az eljárást így K sokszor kell megismételni. De előnyös, mert így K db tanítást történik, és mindig olyan teszthalmazon végezzük el a tesztelést, majd az adott tanítási ciklusban nem vett részt csak a feltehetően a korábbiban. Így hatékonyabban mérhető a háló általánosító képessége.&lt;br /&gt;
*A keresztvalidáció a kereszt kiértékelés speciális esete. Ebben az esetben egyetlenegy tanítási folyamat történik. A tanítás eredményét az elkülönített tesztpontokon teszteljük. Ennél az eljárásnál is először természetesen fel kell osztanunk a rendelkezésre álló mintapontokat tanító és teszt mintákra. A keresztvalidáció bármilyen típusú tanítási eljárásnál használható. Ha többször szeretnénk tanítani a hálót, akkor mindig más mintapontokat kell kijelölni tesztpontoknak.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a regularizáció és milyen esetekben van szerepe? Osztályozási feladatra alkalmazott SVM hálóknál milyen formában jelenik meg a regularizáció és mit eredményez?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Regularizáció: Általánosító képességet jelent. A lényege, hogy egyfajta simaságot megkövetelünk, egyfajta az általánosításhoz tartó zajt adunk a tanításhoz, így nem annyira tud nagyon rátanulni a tanítópontokra. Fontossága kevés ismert vagy tanítópont esetén kiemelkedő, hiszen a kevés mintaponttal való tanítás után sem jelenik meg a túltanulás. Az SVM hálók az osztályozás során olyan hipersíkot keresnek, mely minden tanítóponttól egy megadott margin (margó, biztonsági sáv)-ra van, így egyfajta biztosított általánosítást végez, ami amennyiben az eddigi tanítópontok jól leírták a problémát a többi tanítópont is nagyobb valószínűséggel lesz a hipersík megfelelő oldalán, hiszen olyan síkot keres, ami minden pontra igaz ( vagy éppen nem igaz, lásd szoft margó).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mikor és miért van szükség CMAC hálózatoknál tömörítő leképzésre. Milyen problémákat okozhat ennek használata, és hogyan lehet a problémákat mérsékelni/elkerülni?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* A tömörítő leképezés azt jelenti, hogy a kiinduló (virtuális) címtartományt egy kisebb (fizikai) címtartományra képezzük le. Lényegében a hatékony tömörítő eljárások veszteséges lejárások, szükségük a véges memória miatt van. A problémát a veszteség jelenti, amely megfelelő hash, vagy tömörítő eljárást alkalmazva nem lehet probléma, így olyan hash függvényt kell találni ami egyenletesen képez le a fizikai címtartományba.&lt;br /&gt;
* Másképpen kicsit hivatalosabban, az alapvető asszociációs vektorunkat letömörítjük egy tömörített asszociációs vektorra, az alapján hogy a bemeneti tér viszonylag kevés bementi pontjáról érkezik tényleges bemenet. Ez alapján a tömörített vektor alapkán választjuk ki a súlyokat, nem pedig a az eredeti vektor alapján. A tömörítő eljárás egyfajta hashelést jelent, és a probléma akkor van, hogyha ütközés lép fel, vagyis két egymástól távol lévő tanítópont pont részben azonos súlyokat választanak ki. Ha az ütközés valószínűsége kicsi, akkor a hatása elhanyagolható, valamint a tanító lépések számának növelésével az ütközésből adódó interferencia csökkenthető.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mit nevezünk lokális és mit globális tanulásnak? Van-e előnye egyiknek a másikkal szemben? Az ismert hálók közül melyek a globális és melyek a lokális tanulási hálók és miért?&#039;&#039;&#039;&lt;br /&gt;
* Globális tanulás: Minden tanítóponton a tanulás kihat a teljes tartományra, vagyis ha tanítunk egy pontot egy MLP-nek, akkor az megfogja változtatni az értékét egy nagyon távoli bemenetnek is a kimenetét. Ilyenek az MLP, és az RBF, de csak olyan függvény esetén melynek a kimenete a teljes bemeneten érvényes, vagyis egy közepes szórású Gauss függvény már nem fejti ki mindenhol a hatását.&lt;br /&gt;
* Lokális tanulás: Leginkább a globális tanulás ellentettje, vagyis egy tanítópont csak véges területen fejti ki a hatását, így képesek vagyunk lokális tanulásra. Jó példa erre a XOR RBF-el való tanítása. Ilyenek a CMAC, az SVM, és az RBF is bizonyos paraméterek mellet.&lt;br /&gt;
&lt;br /&gt;
Itt megjegyeznék, hogy Horváth Gábor meglepetten mondta, hogy sokan írták azt, ami a docx-ben van, és az teljesen hülyeség, amit fentebb leírtam az 6/6 pontot ért.&lt;br /&gt;
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.&lt;br /&gt;
&lt;br /&gt;
--asztalosdani 2013. június 6., 09:35 (UTC)&lt;br /&gt;
&lt;br /&gt;
[[Category:Infoszak]]&lt;/div&gt;</summary>
		<author><name>Adaniel</name></author>
	</entry>
	<entry>
		<id>https://vik.wiki/index.php?title=KoopKerdesekZHOssz02&amp;diff=167370</id>
		<title>KoopKerdesekZHOssz02</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz02&amp;diff=167370"/>
		<updated>2013-06-06T08:45:22Z</updated>

		<summary type="html">&lt;p&gt;Adaniel: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz02}}&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Egy NFIR(FIR-MPL) hálózat felépítése az abrán látható. A vastag szaggatott vonallal jelölt részek a FIR szűrők, ahol 2 késleltető elem és 3 súly van. Adja meg a háló időben kiterített változatát (virtuális háló) és pontokba szedve adja meg a tanítás lépéseit!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ehhez nincs ábra, de itt marad, hogy volt ilyen is.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mit jelent az időbeli kiterítés olyan NFIR háló tanításánál, ahol egy MLP súlyai helyén FIR szűrőket alkalmazunk?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
FIR szűrő: Lényege, hogy a tárolja a szűrő az elmúlt pár bemenetet, és ezek összege a kimenete, olyan mint egy shiftreigiszter ami a kimenetén az összes tárolt érték összegét adja.&lt;br /&gt;
&lt;br /&gt;
Akkor a könyvből egy hosszú idézet:&amp;quot; E megközelítés szerint végezve a vizsgálatot valójában időben kiterítjük a hálózatot és így egy nagyobb, de statikus hálót kapunk, ami már a hagyományos hibavisszaterjesztéses algoritmussal tanítható. A kiterítés következtében kapott virtuális háló azonban igen nagyméretű is lehet a FIR szűrőkben található késleltető láncok méretétől függően, továbbá a virtuális háló struktúrája el fog térni a szokásos többrétegű perceptron felépítésétől: az egyes rétegek processzáló elemei nincsenek a következő réteg összes processzáló elemével összekötve. További eltérés, hogy a virtuális háló az időbeli kiterítés következtében jóval több súlyt tartalmaz, mint a fizikailag létező valóságos; egy valóságos súlynak a virtuális hálóban több megfelelője van, melyek a háló működésének különböző időpillanataihoz tartoznak és a kiterített hálóban más-más rétegben szerepelnek. A hagyományos hibavisszaterjesztéses algoritmus alkalmazásánál az azonos fizikai súly különböző virtuális megfelelőihöz eltérő súlymódosító összefüggéseket kapunk, mivel a hibavisszaterjesztés útja a különböző virtuális megfelelőkig eltérő. Ennek ellenére csak egy fizikai súly létezik, tehát ezt különbözőképpen nem módosíthatjuk. A megoldás csak az lehet, hogy a különböző módon visszaterjesztett &amp;quot;hiba&amp;quot; figyelembevételével nyert súlymódosítások eredőjével kell módosítanunk a fizikai súly értékét, ami azt jelenti, hogy a megfelelő virtuális súlyok azonos mértékben és egyszerre módosulnak.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a kernel trükk és mi a jelentősége?&#039;&#039;&#039;&lt;br /&gt;
*Mit nevezünk kernel trükknek és mi a jelentősége? Alkalmazható-e a kernel trükk az ismert előrecsatolt hálók (lineáris súlyozott összeg, MLP, RBF, CMAC) esetében? Amennyiben lehet kernel trükköt alkalmazni, meg tudja-e adni a kernel függvényt az egyes esetekben? Adja meg a kernel függvény meghatározásnának általános módját minden olyan esetben, ahol a háló leképzése kerneles formában is megadható, és ahol lehet, adja meg a kernel függvényt explicit formában is!*&lt;br /&gt;
&lt;br /&gt;
Alapból a kimenetet a következő összefüggéssel állítjuk elő:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; y (x) = \sum_{i=0}^{M} w_i \varphi _i ( x ) = w ^{T} \varphi ( x ) {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A kernel trükk segítségével azonban ezt a függvényt átalakítjuk a következő formába:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; y (x) = \varphi ( x ) ^{T} \phi ^{T} \alpha = \sum^{P}_{i=1} \alpha _i ( \varphi ( x ) ^{T} \varphi ( x _i ) ) = \sum^{P}_{i=1} \alpha _i K _i ( \varphi ( x )) {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \varphi (x )^{T} \varphi ( x_i ) = K_i ( \varphi ( x )) = K (x , X_i ) {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Amint az a második összefüggésből is látszik a kerneles reprezentáció a tanítópontoknak megfelelő számú (P) kernel függvény-érték súlyozott összegeként áll elő, függetlenül attól, hogy az implicit módon definiált jellemzőtér dimenziója (M) mekkora. A kernel függvény megválasztásától függően a jellemzőtér dimenziója nagyon nagy, akár végtelen is lehet, ami az első szummás kifejezés szerinti kimenet előállítást nagyon megnehezítené, sőt akár lehetetlenné is tenné, miközben a kernel reprezentáció komplexitása a tanítópontok száma által mindenképpen korlátozott. Minthogy a kernel térbeli megoldás ekvivalens a jellemzőtérbeli megoldással, a kernel módszerekkel azt tudjuk elérni, hogy a megoldás komplexitását akkor is korlátozni tudjuk, ha egyébként a megfelelő jellemzőtérbeli megoldás extrém módon komplex lenne. A kernel függvények bevezetésének ezt a hatását kernel trükknek (kernel trick) nevezzük.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Egy idősor-előrejelzési feladatot szeretne megoldani NFIR vagy NARX hálózattal. Írja le a háló konstrukciójának lépéseit és azt is, hogy az egyes lépéseknél szükséges feladatok hogyan oldhatók meg. Mi a különbség a kétféle architektúra között?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Az NFIR konstrukciónál egy FIR-MLP-t készítenék, amely lényegében egy tetszőleges számú rejtett réteggel, és azokban tetszőleges számú perceptronnal működő hálózat, azonban a súlyokat (kivéve az eltolás súlyokat) egy FIR szűrőre cserélem, ezzel kész is a háló. A tanítás során a súlymódosításnál használhatom az idő szerinti kiterítést, azonban ez sok számítást vesz igénybe, így inkább a hatékonyabb temporális hiba visszaterjesztési eljárást alkalmazom, ahol az eredő gradienst az eredő hiba kimeneti parciálisa szerint kapok meg.&lt;br /&gt;
NARX hálózat esetében olyan hálózatot csinálok, melynek a bemeneti oldalán készítek bemeneteket, amikre az előző időpont bemeneteit, valamint az előző bemenethez tartozó kívánt kimenetet is beadom. A tanítás normális módon hálótól függően visszaterjesztéses módszerrel (ezek nem előrecsatolt hálózatok, a FIR hálókkal ellentétben, amik viszont igen). &#039;&#039;Ez a rész itt már lehet, hogy bődületes nagy hülyeség. Szóval a tesztelést NOE hálózattal végezném, hiszen ez a bemenetén felhasználja a régebbi kimenetek is a régi bemenetek mellet.&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Lehet-e lokális minimum egy lineáris kimeneti réteggel rendelkező egy rejtett régetű MLP és egy RBF (vagy CMAC) esetén, ha a súlyokat tanítjuk és egy négyzetes hibafüggvényt alkalmazunk? Válaszát indokolja!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Az MLP paraméterekben nemlineáris leképezése miatt a hibafelület nem kvadratikus. Ez még akkor is igaz, ha az MLP-nél is lineáris kimeneti réteget alkalmazunk. A felületen létezhetnek lokális minimumok, sőt a globális minimum sem egyértelmű: a súlyok megfelelő permutációjával különböző, de egyenértékű megoldásokhoz juthatunk. A lokálisak, mint láttuk a háló tanításánál (a gradiens alapú tanuló eljárásoknál) okozhatnak komoly nehézséget. &lt;br /&gt;
A bázisfüggvényes hálók, amennyiben csak a kimeneti lineáris réteget tanítjuk, négyzetes hibafelülettel rendelkeznek, ami biztosítja, hogy nincsenek lokális minimumok .&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a Hebb tanulási szabály és milyen hálók tanításánál van szerepe? Milyen módon származtatható az Oja szabály a Hebb szabályból?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Adja meg a Hebb tanulási szabályt és a Hebb tanulás szerepét a Kohonen háló tanításánál!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
A Hebb tanulást a mesterséges neurális hálók tanításánál alkalmazzák. Ez a tanítás eljárás a biológiai tanulás folyamatát utánozza. A neurális hálók elemei közötti kapcsolat erőssége az elemeket aktivitásának szorzatával arányos. A kapcsolat erőssége alatt az elemek közötti súlytényezőt kell érteni.&lt;br /&gt;
A Hebb-szabály:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; w[ij](k+1) = w[ij](k) + \nu * y[i](k) * y[j](k) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ahol a &amp;quot;k&amp;quot; jelenti az egyik időpillanatot, &amp;quot;k+1&amp;quot; pedig a következőt. A w[ij] jelenti az i. és a j. processzáló elem közötti súlytényezőt. A &amp;lt;math&amp;gt;\nu&amp;lt;/math&amp;gt; jelenti a bátorsági faktort, az y[i] és az y[j], pedig az i. és a j. processzáló elem kimenetének értéke. A képlet lehet ez is:&lt;br /&gt;
&amp;lt;math&amp;gt;w[ij] (k+1) = w[ij](k) + \nu * x[i](k) * y[j](k) &amp;lt;/math&amp;gt;, ahol az x[i] az i. bemenetet jelenti.&lt;br /&gt;
&lt;br /&gt;
Oja szabály Hebb-ből: http://mialmanach.mit.bme.hu/neuralis/ch10s04 10.4.2. rész&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Milyen két fő elv alkalmazásával származtatható a GHA (Sanger-algoritmus)-t felhasználó PCA háló? Írja le a GHA algoritmus fő lépéseit! (Ha az összefüggéseket is meg tudja adni, írja le azokat is, ha nem, akkor a gondolatmenetet írja le!)&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
__TODO__&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Egy olyan MLP hálót szeretne tanítani, melyben minden neuronnál a szokásos szigmoid függvény helyett annak -1-szeresét alkalmazza. Alkalmazható-e ez a háló a szokásos feladatok megoldására? Ha igen, hogyan alakul a tanítása, ha nem, indokolja meg, hogy miért nem!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
A háló ekvivalens egy közönséges, szigmoidot használó MLP-vel, amiben (a bemenetieket leszámítva) minden súlyt -1-szereségre változtattunk (így a rétegek közt ugyanúgy egyszer invertálódnak az értékek), és a kimenetet is -1-szeresére változtatjuk. Tehát az új háló tanítására egy triviális módszer, hogy a vele ekvivalens normál MLP-t betanítjuk (azonos bemenetekkel, de a kívánt kimenetek helyett a -1-szeresüket használva a tanításhoz), majd a végén visszamásoljuk a kapott súlyokat (a -1-szeresüket) az új hálóba. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a szerepe a tanulási tényezőnek (bátorságfaktor) az iteratív tanulási eljárásoknál, és hogyan kell megválasztani a Perceptronnál illetve az Adaline-nál?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* Tanulás közben általában azt tudjuk megállapítani a rendszerről, hogy egy adott bemenetre a kimenet mennyire és milyen irányba tér el a megkívánttól. A hiba és a hálózatot leíró függvény alapján tudjuk, milyen irányba érdemes változtatni a paramétereket, de azt általában nem, hogy mennyire. Azt, hogy milyen &amp;quot;bátran&amp;quot; lépjünk a megfelelő irányba, a bátorsági tényező szabja meg. Erősen befolyásolja a &amp;quot;jó&amp;quot; rendszerhez való konvergencia sebességét, illetve azt, hogy egyáltalán konvergálunk-e.&lt;br /&gt;
* Percreptonnál a tanulás konvergens a bátorsági tényező értékétől függetlenül, de nagyobbnak kell lennie nullánál, és az értéke befolyásolja a konvergencia sebességét. Adaline esetében túl nagy érték okozhat divergenciát; a konvergencia biztosításához az &amp;lt;math&amp;gt; x^{T}x {} &amp;lt;/math&amp;gt; mátrix legnagyobb sajátértékének reciprokánál kisebbre kell választani, valamint nullánál nagyobbra. Ez egyenletben kifejezve a jól ismert &amp;lt;math&amp;gt; {\lambda}_{max} {} &amp;lt;/math&amp;gt; az R legnagyobb sajátértéke, ahol az R a bemenet autokorrelációs mátrixa, ami egyenlő a fentebb írt &amp;lt;math&amp;gt; X^{T}X {} &amp;lt;/math&amp;gt;  mátrixxal. Léteznek módszerek a tényező tanulás közbeni adaptív változtatására is, amik alapvetően gyorsítják a konvergenciát, azonban ugyanezek a feltételek érvényesek rá.&lt;br /&gt;
&lt;br /&gt;
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.&lt;br /&gt;
&lt;br /&gt;
--asztalosdani 2013. június 6., 08:45 (UTC)&lt;br /&gt;
&lt;br /&gt;
[[Category:Infoszak]]&lt;/div&gt;</summary>
		<author><name>Adaniel</name></author>
	</entry>
	<entry>
		<id>https://vik.wiki/index.php?title=KoopKerdesekZHOssz01&amp;diff=167364</id>
		<title>KoopKerdesekZHOssz01</title>
		<link rel="alternate" type="text/html" href="https://vik.wiki/index.php?title=KoopKerdesekZHOssz01&amp;diff=167364"/>
		<updated>2013-06-06T07:39:51Z</updated>

		<summary type="html">&lt;p&gt;Adaniel: /* Összegyűjtött kérdések a Zhig 01 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{GlobalTemplate|Infoszak|KoopKerdesekZHOssz01}}&lt;br /&gt;
&lt;br /&gt;
==Összegyűjtött kérdések a Zhig 01==&lt;br /&gt;
&lt;br /&gt;
Daraboltam, így könyebb a szerkeztése, és a latex-ek is megjelennek.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Kérlek javítsátok, és bővítsétek, azért lett wikilap, mert egy doc-ot mindenki lusta bővíteni, és javítani.&lt;br /&gt;
&lt;br /&gt;
Nagy része a KTR_tanuls.docx-ből, és itt lévő Zh-kból. Sokszor több kérdés egybe van véve, mert nem ugyanazt kérdezik más szóval, hanem mert egy adott témára úgy kérdez rá, hogy átfedés van köztük.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Adja meg az Adaline iteratív tanuló eljárását! Adja meg azokat a feltételeket is, amelyek fennállta esetén az iteratív megoldás konvergens lesz! Adja meg, hogy milyen kritérium függvény alapján fogalmazzuk meg az optimumfeladatot!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Az Adaline optimális súlyvektorának meghatározására mind az analitius összefüggés, mint az iteratív tanuló eljárás létezik. Adja meg a kétféle meghatározás összefüggését, és azokat, a feltételeket, amelyek fennállta esetén az iteratív megoldás az analitikus eredményéhez tart! Azt is adja meg, hogy milyen kritériumfüggvény alapján fogalmazzuk meg az optimumfeladatot!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Származtassa az LMS algoritmust és adja meg a konvergencia feltételeit! Mi a sajátérték fizikai jelentése?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
LMS (Least Mean Sqare): Olyan iteratív eljárás, amely mindig a pillanatnyi négyzetes hiba csökkentésének irányába módosítja az aktuális paramétervektort. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; w(k+1) = w(k) + 2 {\mu} {\epsilon} (k) x (k) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ahol a &amp;lt;math&amp;gt; w {} &amp;lt;/math&amp;gt; súlyvektor értéke, a &amp;lt;math&amp;gt; \mu {} &amp;lt;/math&amp;gt; a bátorsági tényező, az &amp;lt;math&amp;gt; \epsilon {} &amp;lt;/math&amp;gt; a hiba értéke és az &amp;lt;math&amp;gt; x {} &amp;lt;/math&amp;gt; a bemenet.&lt;br /&gt;
&lt;br /&gt;
A konvergencia feltétele:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; 0 &amp;lt; \mu &amp;lt; \frac{1}{{\lambda}_{max}} {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ahol a &amp;lt;math&amp;gt; \lambda_{max} {} &amp;lt;/math&amp;gt; az &amp;lt;math&amp;gt; R {} &amp;lt;/math&amp;gt; legnagyobb sajátértéke, ahol az &amp;lt;math&amp;gt; R {} &amp;lt;/math&amp;gt; a bemenet autokorrelációs mátrixa. Ezt &amp;lt;math&amp;gt; \lambda_{max} {} &amp;lt;/math&amp;gt; -ot Adaline esetében vagy tudjuk, vagy a felső becslését tudjuk.&lt;br /&gt;
&lt;br /&gt;
A sajátérték fizikai jelentése: Minél nagyobb egy sajátérték, annál nagyobb a hibafelület adott irány menti meredekség-változása azaz a görbülete.&lt;br /&gt;
&lt;br /&gt;
A kritériumfüggvény: &amp;lt;math&amp;gt; C ( w ) = \frac{1}{P} \sum_{i = 1}^{P} \left( d_i - f(w,x_i) \right)^2 &amp;lt;/math&amp;gt;&lt;br /&gt;
A lineáris kapcsolat miatt az &amp;lt;math&amp;gt; f(w,x) = w^{T}x &amp;lt;/math&amp;gt;. Vagyis az átlagos négyzetes hiba felírható a következő formában is:&amp;lt;math&amp;gt; C(w) = (d - X w)^{T} ( d - X w) {}&amp;lt;/math&amp;gt;. Ahol d a tanítópontokbeli kívánt válaszokból épített p elemű oszlopvektor, X a bemeneti vektorokl képzett mátrix, w pedig a keresett paramétervektor. A megoldás itt aztán a &amp;lt;math&amp;gt; d = X w {}&amp;lt;/math&amp;gt;, máshogyan &amp;lt;math&amp;gt; w = X^{-1} d {}&amp;lt;/math&amp;gt;, valamint pszeudoinverz alkalmazásával &amp;lt;math&amp;gt; w^{*} = X^{\dagger} d = ( X^TX)^{-1} X^T d &amp;lt;/math&amp;gt;. Az összefüggés legfontosabb része, hogy ugyaerre a megoldásra jutunk, hogyha kritériumfüggvény (amit az iteratív eljáráshoz alkalmazott kritériumfüggvény átalakítottja, vagyis nem a szummás, hanem amelyik függvény utána van) gradiens nulla értéket biztosító paraméterét határozzuk meg:&lt;br /&gt;
&amp;lt;math&amp;gt; \frac{\partial  C ( w ) }{ \partial w } = -2 X^Td + 2 X^TXw = 0 &amp;lt;/math&amp;gt;&lt;br /&gt;
Ekkor ezt kapjuk:&lt;br /&gt;
&amp;lt;math&amp;gt; X^TXw = X^Td &amp;lt;/math&amp;gt;, ami átalakítva &amp;lt;math&amp;gt; w^{*} = ( X^TX)^{-1} X^T d {}&amp;lt;/math&amp;gt; (ismerős?)&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Hasonlítsa össze a Perceptron-t és az Adaline-t felépítés, képesség, tanítási algoritmus szempontjából!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* A két neuron felépítése lényegében azonos: a bemeneti &amp;lt;math&amp;gt; (x_1, x_2, ..., x_N) {} &amp;lt;/math&amp;gt; vektort kiegészítjük egy &amp;lt;math&amp;gt; x_0 = 1 {} &amp;lt;/math&amp;gt; elemmel (ez azért kell, hogy a csupa nulla bemenő vektorra is tudjunk nemnulla kimenetet generálni), majd az így kapott &amp;lt;math&amp;gt; \underline{x} {} &amp;lt;/math&amp;gt; vektort beszorozzuk a súlyokat tartalmazó &amp;lt;math&amp;gt; \underline{w}^T {} &amp;lt;/math&amp;gt; vektorral. Az &amp;lt;math&amp;gt; s = \underline{w}^T \underline{x} {} &amp;lt;/math&amp;gt; értéket pedig küszöbözzük: &amp;lt;math&amp;gt; y = sgn(\underline{w}^T \underline{x}) {} &amp;lt;/math&amp;gt; (pozitív s-re 1, negatívra -1 lesz a kimenet).&lt;br /&gt;
* A perceptron tanításához a neuron kimenetét (y) vetjük össze a kívánt kimenettel (d). Egy tanítópont hibája: &amp;lt;math&amp;gt; \varepsilon = d - y {} &amp;lt;/math&amp;gt;, a súlyvektor módosítása: &amp;lt;math&amp;gt; \underline{w}&#039; = \underline{w} + \alpha \varepsilon \underline{x} {} &amp;lt;/math&amp;gt; (alfa a tanítási tényező). Sorra vesszük a tanítópontokat, és addig ismételgetjük a korrekciót, amíg mindegyik tanítópontra megfelelő lesz a kimenet. Csak lineárisan szeparálható pontok osztályozására működik (azaz, ha létezik a pontokat tartalmazó N-dimenziós térben olyan hipersík, aminek egyik oldalán van az összes +1-es kimenetű pont, a másik oldalán a többi). Ez esetben belátható, hogy véges lépésben egy jó súlyvektorhoz konvergál az eljárás.&lt;br /&gt;
* Az adaline tanítása annyiban más, hogy nem y-nal vetjük össze d-t, hanem s-sel, vagyis a küszöbözés előtti súlyozott összeggel. Egy tanítópont hibája: &amp;lt;math&amp;gt; \varepsilon = d - s {} &amp;lt;/math&amp;gt;, az összes pont átlagos négyzetes hibája: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \frac{1}{P} \sum_{i=0}^P (d_i - \underline{w}^T \underline{x}_i)^2 = \frac{1}{P}(\underline{d} - \underline{\underline{X}}\underline{w})^T (\underline{d} - \underline{\underline{X}}\underline{w}) {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
És mi ezt akarjuk minimalizálni. (P a tanítópontok száma, X a vektoraikból mint sorvektorokból képzett mátrix, d a kivánt kimenetekből képzett oszlopvektor). A minimumhelyén a gradiense (a súlyvektor függvényében) 0 kell legyen, innen kifejezve a súlyvektort: &amp;lt;math&amp;gt; {} \underline{w} = (\underline{\underline{X}}^T \underline{\underline{X}})^{-1} \underline{\underline{X}}^T \underline{d} &amp;lt;/math&amp;gt; Itt nincs iteráció (bár a gradiens nullhelyének meghatározása nagyméretű mátrixok esetén iteratív módszerekkel célszerűbb), és nem csak lineárisan szeparálható pontoknál működik, viszont semmi garancia nincs arra, hogy jól fog minden pontot osztályozni, mert csak a lineáris rész négyzetes hibáját minimalizáltuk, nem a rosszul osztályzott pontok számát. (Ez az analitikus megoldás). &lt;br /&gt;
Kicsit pontosabban, az Adaline minden esetben tud adni megoldást. Egy olyan esetben, amikor a pontok lineárisan nem szeparálhatóak a perceptron nem tud megoldást adni, az Adaline tud, mind analitikus módszerrel, mind iteratív. Az analitikus módszer esetében is a kvadratikus hibafelület minimumát fogja adni, ami lineárisan nem szeparálható pontok esetén azt jelenti, hogy a legjobb osztályozást adja, viszont nem minden pont lesz a hipersík megfelelő oldalán.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a Wiener-Hopf összefüggés, és milyen esetben alkalmazható egy tanuló architektúra szabad paramétereinek meghatározására? Pontosan fogalmazza meg azokat az általános feltételeket, amelyek mellett az összefüggés alkalmazható, és az összefüggés minden elemét pontosan definiálja! Optimális megoldást ad-e az eljárás? Ha igen, milyen értelemben, ha nem, miért nem?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Wiener-Hopf összefüggés: &amp;lt;math&amp;gt; {} w^{*} = R^{-1}p &amp;lt;/math&amp;gt;, ahol &amp;lt;math&amp;gt; w^{*} &amp;lt;/math&amp;gt; az optimális súlyvektor, ahol &amp;lt;math&amp;gt;{}  R = E \left\{ x x^{T} \right\} &amp;lt;/math&amp;gt; a bemenet autokorrelációs mátrixa ( ahol az x a bemeneti vektor), és a &amp;lt;math&amp;gt;{}  p = E \left\{ dx \right\} &amp;lt;/math&amp;gt; pedig egy olyan oszlopvektort jelöl, amely a kívánt kimenet és a bemenet közötti keresztkorreláció.&lt;br /&gt;
&lt;br /&gt;
Kritériumok: &amp;lt;math&amp;gt; {} d_{i} &amp;lt;/math&amp;gt; a kívánt válaszok és az &amp;lt;math&amp;gt; {x}_{i} &amp;lt;/math&amp;gt; a bemenetek statisztikai jellemzői, valamint R és p ismertek. Ha R és p nem ismertek, akkor ezeket becsülni kell véges számú mintapont alapján.&lt;br /&gt;
&lt;br /&gt;
Optimális megoldást ad olyan értelemben, hogy a hibafelület minimumát adja, ily módon a legkisebb hibával megadja egy lineárisan nem szeparálható feladat minimumát Adaline esetében, de ettől még az Adaline hibásan fog osztályozni.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Lehet-e analitikus tanítást alkalmazni az alábbi neurális hálózatoknál, ha az összes tanítópont a rendelkezésünkre áll és négyzetes hibafüggvényt alkalmazunk: lineáris kimeneti rétegekkel rendelkező egyrétegű MLP, RBF, CMAC? Ha igen, adja meg az analitikus összefüggéseket, ha nem indokolja meg, hogy miért nem!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Egyes bázisfüggvényes hálózatoknál (RBF, CMAC) lehetőség van a súlyvektor(ok) analitikus meghatározására is. Adja meg az analitikus összefüggéseket, és azt is, hogy milyen feltételei vannak az adott összefüggések alapján történő súlymeghatározásnak!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
* MLP: nem, a hibafelület nem kvadratikus, a gradiens kvadratikusát felhasználó analitikus megoldás így nem alkalmazható. &#039;&#039;Nem tökéletes, de ér pár pontot&#039;&#039;&lt;br /&gt;
* RBF: lehet analitikus tanítást alkalmazni. Összefüggés &amp;lt;math&amp;gt; w^{*} = G^{-1} d = ( G ^{T}G )^{-1} G^{T} d {} &amp;lt;/math&amp;gt;. A feltétele, hogy ismernünk kell az összes tanítópontot.&lt;br /&gt;
* CMAC: lehet analitikus tanítás, mert: A CMAC súlyainek meghatározásához a következő egyenletet kell megoldani &amp;lt;math&amp;gt; \underline {\underline A} \underline w = \underline d {} &amp;lt;/math&amp;gt;, ahol a w a súlyok oszlopvektora, d a tanítópontokban kívánt kimenetekből álló oszlopvektor. Az A mátrix azt írja le, melyik tanítópont melyik neuronokat aktiválja (vagyis melyik tartományba esik bele). Az i. sor j. elem adja meg, hogy az i. tanítópont j. neuront aktiválja-e, a baloldalon álló szorzat a tanítópontok tényleges aktivációinak oszlopvektora. &amp;lt;math&amp;gt; w^{*} = A^{-1} d = ( A^{T} A) ^{-1} A^{T} d {} &amp;lt;/math&amp;gt; valamint &amp;lt;math&amp;gt; y = T w^{*} = T A ^{T} ( A A ^{T})^{-1} d = T A^{T}B d {} &amp;lt;/math&amp;gt;. A feltétel ehhez, hogy a tanítópontok egyenletesen, egymástól pontosan egységnyi távolságra helyezkednek el.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a szoft margó(margin, tartaléksáv) jelentése, szerepe és a jelentősége az SVM-nél? Hogyan kell értelmezni a margót nemlineáris osztályozási feladatnál?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a margó(margin, tartaléksáv) szerepe és jelentősége az SVM-nél? Hogyan kell értelmezni a margót a nemlineáris osztályozási feladatnál? Hogyan módosul ez a szerep, ha az SVM származtatásnál gyengítő (slack) változót is használunk?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Szupport vektor gépeknél osztályozási feladat esetén mi biztosítja, hogy az elválasztandó osztályok között egy biztonsági sáv alakuljon ki? Adja meg azt a matematikai összefüggést, ami biztosítja a biztonsági sávot. Hogyan biztosítható, hogy a biztonsági sáv maximális értéket vegyen fel? Mit lehet tenni, ha a tanítópontok elhelyezkedése olyan, hogy a két osztály pontjai között nem lehet biztonsági sávot kialakítani?&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Mi a szerepe a gyengítő változóknak Szupport Vektor Gépeknél? Adja meg a nemlineáris osztályozási feladat optimalizálandó kritériumfüggvényét, ha gyengítő változót is használ!&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
SVM: A szupport vektor gépek olyan kernel gépek, melyek a statisztikus tanuláselmélet eredményeit is hasznosítják. Alapváltozatuk lineáris szeparálásra képes, amely azonban kiterjeszthető nemlineáris szeparálásra és nemlineáris regressziós feladatokra is.&lt;br /&gt;
A lineáris kétosztályos osztályozási feladat megoldását adó szupport vektor gép ezt az &amp;amp;#8222;optimális&amp;quot; elválasztó felületet határozza meg.&lt;br /&gt;
A vektorgépek a lineárisan szeparálható feladatoknál olyan optimális megoldásra törekednek, melyek az osztályozásnál az osztályozó hipersíktól az átlagos tanítópont távolság maximális legyen.&lt;br /&gt;
&lt;br /&gt;
Margin: Optimális lineáris szeparálásnak azt a megoldást tekintjük, amikor az elválasztó egyenes (sík, hipersík) a két osztályba tartozó tanítópontok között a pontoktól a lehető legnagyobb távolságra helyezkedik el. A pontok között középre elhelyezett szeparáló felületet a tanító pontoktól egy margó (margin), azaz egy biztonsági sáv választja el, ezért az így megoldható feladatokat maximális tartalékot vagy maximális margót biztosító lineárisan szeparálható osztályozási feladatoknak is nevezzük. A lineárisan nem szeparálható osztályozási feladatoknál a margin helyett szoft-margint értelmezünk.&lt;br /&gt;
&lt;br /&gt;
Soft Margin: Ha megengedjük, hogy a biztonsági sávban is legyenek tanítópontok, miközben továbbra is cél a lehető legnagyobb margó biztosítása, ún. lágy vagy szoft margójú megoldásról beszélünk. Azoknál a pontoknál amelyek a biztonsági sávon kívül helyezkednek le a maximális margójú osztályozást biztosító  &amp;lt;math&amp;gt;  d_{i} (w^{T} x_i + b ) \geq 1 {} &amp;lt;/math&amp;gt; egyenlőség áll fenn. Az ilyen mintapontokra vonatkozó, az előző egyenlőtlenségnek megfelelő formális kapcsolat ún. gyengítő &amp;lt;math&amp;gt; \epsilon {} &amp;lt;/math&amp;gt; változók bevezetésével lehetséges. A gyengítő változók bevezetése lehetővé teszi, hogy a fenti összefüggés az egyes tanítópontoknál különböző mértékben gyengítve érvényesüljön. Ennek megfelelően az összes pontra most a következő egyenlőtlenség ítható fel:&lt;br /&gt;
&amp;lt;math&amp;gt; d_i (w^{T} x_i + b ) \geq 1  - {\epsilon}_i {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Azon tanítópontoknál, ahol &amp;lt;math&amp;gt; \epsilon = 0 {} &amp;lt;/math&amp;gt; visszakapjuk az alapfeladatot. Ha &lt;br /&gt;
&amp;lt;math&amp;gt; 0 &amp;lt; \epsilon &amp;lt; 1 {} &amp;lt;/math&amp;gt;&lt;br /&gt;
, az adott tanítópont a hipersík megfelelő oldalán, de a biztonsági sávban helyezkedik el, &lt;br /&gt;
ha &lt;br /&gt;
&amp;lt;math&amp;gt; \epsilon &amp;gt; 1 {} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
az adott tanítópont a sík ellenkező (hibás) oldalán van. Saját szavakkal: Egy plusz tanítóponthoz kötött változó segítségével elértük, hogy az eredeti képletünk újra minden tanítópontban igaz legyen.&lt;br /&gt;
&lt;br /&gt;
-- [[RynkiewiczAdam|Tsiga]] - 2012.05.16.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Infoszak]]&lt;/div&gt;</summary>
		<author><name>Adaniel</name></author>
	</entry>
</feed>