Tehnici pentru minimizarea perceptronilor multi strat

Proiect
8/10 (1 vot)
Domeniu: Calculatoare
Conține 1 fișier: doc
Pagini : 16 în total
Cuvinte : 5904
Mărime: 1.03MB (arhivat)
Puncte necesare: 6
Profesor îndrumător / Prezentat Profesorului: Dorin Popescu
Proiectul a fost prezentat in ultimul an la Facultatea de Automatica, Calculatoare si Electronica din Craiova, la disciplina Retele Neuronale. Prezinta mai multe tehnici (algoritmi) pentru optimizarea (minimizarea) retelelor neuronale de tip Perceptron. La inceput face o scurta descriere a retelelor neuronale si a catorva formule care le guverneaza, dupa care intra mai in detalliu.

Cuprins

  1. 1. INTRODUCERE
  2. 2. REŢELE NEURONALE:CONCEPTE DE BAZÃ
  3. 3. DE CE MINIMIZAREA ?
  4. 4. TEHNICI PENTRU DETERMINAREA CUNTRIBUŢIEI UNUI ELEMENT
  5. 4. 1. ANALIZE DE PONDERI ŞI DE ACTIVÃRI
  6. 4. 2. ANALIZA CORELAŢIEI
  7. 5. MODELE DE TEST
  8. 6. INTERPRETAREA REZULTATELOR
  9. 6. 1. REŢEA ( 2 X 6 X 1 )
  10. 6. 2. REŢEAUA ( 2 X 16 X 8 X 1 )
  11. 7. MINIMIZAREA REŢELEI
  12. 7. 1. DISCUTAREA REZULTATELOR
  13. 8. APLICAREA PRACTICÃ A METODELOR
  14. 9. CONCLUZII

Extras din proiect

Aceastã lucrare relateazã despre dezvoltarea a trei tehnici pentru minimizarea perceptronilor multi – strat, la care se referã ca analiza ponderii, activãrii şi corelaţiei. Începând cu o reţea care a fost instruitã sã rezolve o problemã de clasificare, tehnicile pot fi folosite pentru a identifica elementele de procesare ( neuronii ) care sunt suplimentare. Reţeau poate apoi fi minimizatã prin scoaterea elementelor suplimentare. Scopul minimizãrii reţelei este sã se obţinã o reţea optimizatã fãrã pierdere de performanţã. Lucrarea examineazã aplicabilitatea metodelor cercetând douã probleme de clasificare artificialã. În sfârşit, medotele sunt utilizate pentru minimizarea unei reţele instruite sã modeleze o variabilã cheie într – un proces de fermentaţie.

Cuvinte cheie : reţele neuronale, optimizarea reţelei, neuroni contribuitori, neuroni suplimentari.

1. INTRODUCERE

De – a lungul multor ani în care reţelele neuronale au fost studiate, a existat o recentã reînviere a interesului în acest domeniu al inteligenţei artificiale care se dezvoltã foarte repede. Acest lucru se poate datora flexibilitãţii domeniului sãu de aplicare, în care o utilizare de succes a fost gãsitã în domenii diverse precum diagnosticele medicale şi schimbul valutar.

Un alt motiv pentru aceastã creştere se datoreazã paralelismului esenţial pe care o structurã tipicã RN îl manifestã. Arhitecturile paralele pot crea un sistem de înaltã performanţã care e capabil sã rezolve probleme complexe repede şi eficient. În prezent, aplicaţiile RN sunt de obicei caracterizate de o structurã deosebit de densã de elemente de procesare ( EP ) şi interconexiuni. Aceastã structurã şi conţinutul sãu nu sunt bine definite, dar reprezintã o suprafaţã importantã, deoarece dicteazã cât de bine va funcţiona reţeaua. Din pãcate, cercetãrile pentru a înţelege cum elementele interne ( unitãţile ascunse ) învaţã corespondenţa intrãrilor şi ieşirilor, au fost limitate.

Lucrarea descrie trei tehnici de analizã şi anume medode de greutate, activare şi corelaţie, care sunt folosite pentru definirea contribuţiei elementelor de procesare în structurile perceptron multi – strat ( PMS ). Se va ilustra cum rezultatele acestor tehnici de analizã pot fi folosite pentru minimizarea unei reţele date, dupã instruire, prin scoaterea oricãror elemente sau legãturi suplimentare.

Teoria RN – urilor şi mai ales a PMS – urilor a fost cercetatã în profunzime în alte materiale dar este necesar sã se sublinieze conceptele de bazã pentru a uşura înţelegerea celorlalte tehnici. Acest lucru este realizat în Secţiunea 2. Secţiunea 3 aduce în discuţie problema minimizãrii şi cum poate aceasta afecta performanţa reţelei. Mai departe sunt descrise cele trei metode de analizã. În Secţiunea 5 sunt dezvoltate moduri de testare pentru a rezolva douã probleme fundamentale de clasificare.

Dupã aplicarea tehnicilor de analizã la modelele de test, rezultatele sunt interpretate în Secţiunea 6. Secţiunea 7 prezintã minimizarea modelelor de test apoi sunt discutate avantajele şi limitele metodelor propuse. În final, în Secţiunea 8, este datã o aplicaţie practicã a metodelor propuse pentru minimizarea unei reţele neuronale care a fost instruitã sã modeleze producţia unui antibiotic printr – un proces de fermentaţie.

2. REŢELE NEURONALE : CONCEPTE DE BAZÃ

Blocul de bazã într – o reţea neuronalã este un element de procesare care imitã operaţia unui neuron biologic în creier. De aceea, aceste elemente mai sunt numite şi neuroni sau perceptroni. În aceastã lucrare, ei sunt numiţi EP.

Fig. 1. a. Element de Procesare

Fig. 1. b. Perceptronul Multi Strat

Fig. 1. a prezintã un EP şi Fig. 1. b. o schemã comunã pentru interconectãrile EP – urilor pentru a forma o reţea neuronalã. Aceste tipuri de arhitecturi sunt denumite perceptroni multi – strat.

Pentru a înţelege cum funcţioneazã o reţea neuronalã complexã, este folositor sã se examineze capacitatea de învãţare a unui singur EP. Ieşirea unui EP în Fig. 1. a poate fi exprimatã în funcţie de intrãri şi greutãţi dupã cum urmeazã :

y = f ( ∑ xiwi + Ø ) ( i = 1, 2, ... , 2n ) ( 1 )

unde f(.) reprezintã o funcţie neliniarã, ne – descrescãtoare şi Ø este un termen numit „bias”. Capacitatea de învãţare a unui singur EP poate fi vizualizatã fãcând n egal cu 2, de exemplu, un spaţiu de intrare bi – dimensional. În acest caz, ieşirea unui EP poate fi scrisã ca :

Preview document

Tehnici pentru minimizarea perceptronilor multi strat - Pagina 1
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 2
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 3
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 4
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 5
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 6
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 7
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 8
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 9
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 10
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 11
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 12
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 13
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 14
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 15
Tehnici pentru minimizarea perceptronilor multi strat - Pagina 16

Conținut arhivă zip

  • Tehnici pentru Minimizarea Perceptronilor Multi Strat.doc

Alții au mai descărcat și

Arhitectura calculatoarelor - Intel vs AMD

Rezultatele din testul 3DS Max 7 SPECapc Test Testul alaturat consta in crearea modelelor 3D, modificarea si randarea scripturilor. Conform...

Autentificarea prin semnătură digitală

Introducere O semnatura digitala reprezinta o informatie care il identifica pe expeditorul unui document. Semnatura digitala este creata prin...

Placa de Bază

Caracteristici generale ale placii de baza Placa de baza este un dizpozitiv ‘de baza’ un ‘pamânt’ pe care ‘se planteaza’ celelalte componente ....

Sistem de Prognosticare a Unei Avarii

Acest sistem calculeaza gradul de avariere a unei cladiri în cazul unui cutremur, precum si posibila necesitate a reconstructiei cladirii (partiala...

Ai nevoie de altceva?