Extras din curs
Arhitectura perceptronului
Este construit în jurul unui neuron nelinear (cu funcţia de activare nelineară- funcţia treaptă / signum).
Hiperplanul de decizie:
a)- linear separabile, b) – neseparabile linear
Este util în clasificarea de pattern-uri liniar separabile (separabile printr-o dreaptă/ un hiperplan), deci în probleme de clasificare cu 2 clase);
Un singur perceptron poate reprezenta funcţiile booleene AND, OR, NAND, NOR- (important, pentru că orice funcţie booleană se poate reprezenta ca o combinaţie a acestora);
Pentru XOR (figura b de mai sus) e nevoie de mai mulţi perceptroni.
Algoritmul de antrenare al perceptronului
Scop: determinarea vectorului w.
1.Dacă exemplul x(t) este clasificat corect de w(t), w(t) rămâne nemodificat.
2.Altfel:
w(t+1)=w(t)-η(t)*x(t), dacă wT(t)x(t)>0 şi x(t) Є C2;
w(t+1)=w(t)+η(t)*x(t), dacă wT(t)x(t)≤0 şi x(t) Є C1.
(η(t) este parametrul de învăţare (>0)- controlează procesul de învăţare).
Teorema de convergenţă a perceptronului
Dacă mulţimile de vectori de antrenare H1 şi H2 (pentru C1, respectiv C2) sunt linear separabile, perceptronul converge după n0 iteratii (n0 ≤ nmax – determinat de parametri dependenţi de H1, H2):
w(n0)= w(n0+1)=...
(pentru o rată de învăţare suficient de mică)
Conținut arhivă zip
- Retele Neuronale - Perceptronul.ppt