Extras din curs
În domeniul inteligenţei artificiale fac parte:
- Sisteme expert;
- Sisteme fuzzy;
- Algoritmi genetici;
- Agenţi inteligenţi;
- Reţele neuronale;
- Procesarea limbajului natural.
În inteligenţa artificială se folosesc ca limbaje de programare fie limbaje dedicate specifice( Prolog, Lips) sau se folosesc limbajele clasice Java, C++, etc.
Domeniul inteligent artificial cuprinde problemele pentru care nu existî un algoritm stabilit de rezolvare.
În problemele inteligenţei artificiale se folosesc algoritmi euristici şi se tolerează faptul că aceşi algoritmi nu dau întotdeauna rezultate.
În mod deosebit aceşti algoritmi se folosesc în spaţiul de căutare de soluţii care este foarte mare.
Reţele neuronale:
- constau din mai mulţi neuroni artificiali (elemente de procesare interconectaţi);
- au diverse arhitecturi;
- originea domeniului din anii 1940, scopul fiind de a simula (electronic) funcţionarea creerului uman;
- primul model de neuron artificial a fost dezvoltat de un biolog şi fizician.
După modelul biologic în care neuronii sunt grupaţi pe straturi: senzorial, de prelucrare ( cortexul, scoarţa cerebrală), motor, sau dezvoltat arhitecturi de reţele neuronale în care neuronii artificiali sunt grupaţi pe straturi.
Reţele neuronale feed-forward pe straturi în care neuronii dintr+un strat sunt total conectaţi cu neuronii din stratul următor, iar în cadrul aceluiaşi strat neuronii nu sunt interconectaţi.
A doua ipoteză că nu sunt interconectaţi nu mai urmează modelul biologic.
Obs: În cadrul reţelelor neuronale s+au dezvoltat două direcţii:
1- direcţia biologică iniţială – arhitectura că şi neuronii artificiali să modeleze cât mai aproape partea biologică (util biologilor pentru a simula teoriile)
2- direcţia inginerească – în care s-au inventat modele de neuroni artificiali şi arhitecturi de neuroni care nu mai sunt în concordanţă cu modelul biologic. Acesta se foloseşte în rezolvarea unor procese specifice. Exm. Recunoaşterea formelor.
Faţă de calculatoarele clasice secvenţiale, reţelele neuronale sunt dispozitive de calcul paralel, în care puterea de calcul este dată nu de puterea unui procesor individual ci rezultă prin paralelism (multe procesoare în paralel).
O altă diferenţă faţă de calculatoarele clasice: - în PC-uri datele sunt memorate în mod clar în celule de memorie, în cazul reţelei neuronale datele sunt memorate difuzate în cadrul reţelei.
Ca mod fizic de realizare, reţelele neuronale pot fi implementate hard (electronic, optic) sau pot fi implementate soft în două moduri:
- pe un calculator paralel sau pe un calculator secvenţial
Implementarea hard este mult mai rapidă; cea soft este flexibilă. În mod tipic pentru aplicaţie industrială reţeaua este simulată mai întâi soft până când i se verifică structura şi apoi se implementează hard.
Feed-forward
3 straturi
In: 3 neuroni
Intermediar: 2 neuroni
Out:3 neuroni
3-2-3
După modelul biologic se aplică fiecărei conexiuni o tărie (numărul real pozitiv sau negativ). Aceasta este denumită pondere. (weight)
Pentru simulare soft se foloseşte Java.
Primul model de neuron artificial a fost McCullock-pitts 1943.
Modelarea neuronului artificial ca un dispozitiv cu program cu mai multe intrări ponderate şi o ieşire.
Activarea este suma ponderată a intrărilor.
a=x0*w0+x1*w1+x2*w2+x3*w3
w>0 conexiuni excitatoare; w<0 conexiuni inhibitoare
y={1 dacă a>=0 şi 0 dacă a<0
double
x[]=new double[N];
int I;
for (i=0; i<N; i++)
x[i]=DoubleparseDouble(JOptionPane.showImputDialog(“ïntrarea”+i+”=”));
double w[]=new “double[N];
for (i=0;i<N;i++)
y[i]=DoubleparseDouble(JOptionPane.showImputDialog(« ponderea »+i+”=));
//a=∑xiwi
double a=0;
for (i=0;i<N;i++)
a=a+x[i]*w[i];
double y;
if(a>=0) y=1;
else y=0;
System.out.println(“iesirea y=”+y);
}
}
Neuronul McCullock – Petts este incapabil de a învăţa.
Perceptronul
- una din primele reţele neuronale ; a fost realizat de către Rosenblatt în 1957 ;
- a fost o primă încercare de a înţelege memoria umană, modul de învăţare ;
Acest perceptron a putut să înveţe, să identifice, să clasifice anumite forme.
Rosenblatt a fost cel care a dezvoltat un model de învăţare bazat pe ajustarea, modificarea ponderilor.
Perceptronul a avut o singură trăsătură negativă importantă. Nu era capabil să înveţe să clasifice forme care nu sunt liniar separabile.
Preview document
Conținut arhivă zip
- Retele Neuronale
- curs 1 pt 97-03.doc
- curs 2 pt 97-03.doc
- Curs 3 97-03.doc
- curs 4 97-03.doc
- curs 5 pt 97-03.doc
- curs 6 pt 97-03.doc