Retele neuronale_ok.doc

download Retele neuronale_ok.doc

of 39

Transcript of Retele neuronale_ok.doc

  • 7/27/2019 Retele neuronale_ok.doc

    1/39

    Argument...3

    Partea I.Fundamente teoretice ..................................................................................................................... 4

    1. Introducere .............................................................................................................................................4

    2. Scurt istoric .............................................................................................................................................5

    3. Definiii ...................................................................................................................................................6

    4. Structura reelelor neuronale artificiale.................................................................................................74.1.Caracteristicile reelei neuronale......................................................................................................84.2.Arhitectura reelei .......................................................................................................................... 114.1.3.Algoritimi de nvare ................................................................................................................. 17

    5. Aplicaii tipice...................................................................................................................................... 21

    Partea a II-a.Utilizarea RNA la modelarea neural a proceselor din ingineria chimic ............................ 23

    1. Implementarea software a RNA-NS for Excel .......... ........... .......... .......... ........... .......... .......... ........... .... 23

    2.Aplicaie ................................................................................................................................................ 31

    2.1. Sulfoclorurarea esterului metilic al acidului 2,4 -diclorfenoxiacetic .......... ........... .......... .......... ...... 31

    2.2.Modelarea neuronal direct ............................................................................................................. 312.2.1. Proiectarea RNA pentru modelarea direct ................................................................................ 312.2.2. Rezultate .................................................................................................................................... 34

    Concluzii.39

    Bibliografie.................40

  • 7/27/2019 Retele neuronale_ok.doc

    2/39

    3

    Pe plan mondial, cercettorii din universiti ct i din marilecompanii utilizeaz n mod curent tehnologii bazate pe reelele neuronale.Fiecare dintre aceste direcii de cercetare utilizeaz instrumente teoretice iterminologie specifice, prezint deopotriv avantaje reale, dar i limitrirecunoscute i au fost introduse deja cu mai mult sau mai puin succes ncircuitul comercial.

    Subiectul central al acestei lucrri const n familiarizarea cuconceptele teoretice ale reelelor neuronale artificiale (RNA) i utilizareaacestora la modelarea proceselor din ingineria chimic. Scopul urmrit estede a ilustra motivaiile care justific interesul pentru aceasta direcie decercetare, de a introduce primele elemente de terminologie, de a enumeraprincipalele momente din evoluia acestui domeniu n ultimele decenii i de aclasifica tipurile de aplicaiidin ingineria chimic i abordarea uneia dintreacestea, modelarea neuronal.

  • 7/27/2019 Retele neuronale_ok.doc

    3/39

    4

    Fundamente teoretice

    1. Introducere

    Preocuparea pentru reelele neuronale artificiale, denumite n mod curent reeleneuronale, a fost motivat de recunoaterea faptului c modul n care calculeaz creierulfiinelor vii este complet diferit de cel al calculatoarelor numerice convenionale. Spredeosebire de mainile von Neumann, unde exist o unitate de procesare care executinstruciunile stocate n memorie n mod serial, numai o instruciune la un moment dat,reelele neuronale utilizeaz n mod masiv paralelismul.

    Fiind modele simplificate ale creierului uman, ele dein capacitatea de a nva,spre deosebire de calculatoarele convenionale, care rmn totui mai eficiente pentru

    sarcinile bazate pe operaii aritmetice precise i rapide.Reelele neuronale nu dispun de uniti de procesare puternice, dimpotriv,

    acestea sunt caracterizate printr-o simplitate extrem, ns interaciunile lor pe ansambluproduc rezultate complexe datorit numrului mare de conexiuni.

    n tiina inteligenei artificiale, reelele neurale caracterizeaz ansambluri deelemente de procesare simple, puternic interconectate i opernd n paralel, care urmrescs interacioneze cu mediul nconjurtor ntr-un mod asemntor creierelor biologice icare prezint capacitatea de a nva. Nu exist o definiie general acceptat a acestortipuri de sisteme, dar majoritatea cercettorilor sunt de acord cu definirea reelelorartificiale ca reele de elemente simple puternic interconectate prin intermediul unorlegturi numite interconexiuni prin care se propag informaie numeric.

    Originea acestor reele trebuie cutat n studierea reelelor bioelectrice dincreierformate de neuroni i sinapsele acestora. Principala trstur a acestor reele estecapacitatea de a nva pe baz de exemple, folosindu-se de experiena anterioar pentrua-i mbunti performanele.

    Din perspectiva istoric, multe dintre ideile vehiculate n acest context suntmotivate de dorina de a construi sisteme capabile sa rezolve cu succes sarcini uzualepentru creierul uman precum nelegerea vorbirii sau recunoaterea formelor. n fapt,aceasta abordare s-a dovedit utila n special pentru probleme dificil de formalizat sub

    http://ro.wikipedia.org/wiki/Inteligen%C5%A3%C4%83_artificial%C4%83http://ro.wikipedia.org/wiki/Inteligen%C5%A3%C4%83_artificial%C4%83http://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Neuronhttp://ro.wikipedia.org/wiki/Sinaps%C4%83http://ro.wikipedia.org/wiki/Sinaps%C4%83http://ro.wikipedia.org/wiki/Neuronhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Inteligen%C5%A3%C4%83_artificial%C4%83
  • 7/27/2019 Retele neuronale_ok.doc

    4/39

    5

    forma unui algoritm (adic a unei reete care s garanteze rezultatul), situaie carepresupune o nelegere profunda a aplicaiei considerate. Majoritatea reelelor neuraleutilizeaz mecanisme pe baza crora intensitatea legturilordintre neuroni sunt ajustate nfuncie de calitatea rspunsului la stimuli externi. Ajungem astfel la principala trstura aacestor sisteme, anume capacitatea de a nva pe baza de exemple, folosind experiena

    anterioara pentru a-si mbunti permanent performantele, dar i de a oferi un anumitgrad de generalizare, care se traduce printr-un rspuns adecvat la informaii de intrarecare nu au fost folosite n faza de antrenare.

    Exist cteva motive ntemeiate pentru a considera reelele neurale ca o soluieatractiv ntr-o serie ntreag de aplicaii practice importante, dintre care amintim:

    acestea pot aciona ca module de tip black-box n situaiile n care avem ladispoziie un volum mare de date, fr a putea spune prea multe despre procesulcare le-a generat. De multe ori, deiidentificarea unei dependene ntre mrimilede intrare i o anumitinformaiede interes ar fi extrem de util, nu beneficiem demodele adecvate sau de valori ale parametrilor acestora;

    nvare reuit, reelele neuronale tolereaz n modremarcabil diferene (uneori, apreciabile) ntre datele aplicate la intrare n procesulde operare si cele vzute n etapa de antrenare. Aceasta reprezint o consecinaa aa numitei capacitai de generalizare a reelelor neurale, care exprimposibilitatea acestora de a oferi un rspuns corect, chiar dac la intrare se aplicversiuni incomplete, zgomotoase sau distorsionate ale informaiilor folosite nantrenare.

    aplicaii extrem de diferite pot fi abordate folosind practic acelai sistem, fr a finecesar reproiectarea complet. Au fost dezvoltate i lansate n circuitulcomercial o serie de simulatoare puternice i flexibile, un exemplu concludent nacest sens fiind oferit de produsul firmei americaneNeuroDimension denumitNeuroSolutions .

    2. Scurt istoric

    Studiul reelelor neuronale a cunoscut perioade n care activitatea de cercetare afost extrem de intens i perioade n care acesta a fost declarat complet "mort" pentru caapoi s revin n centrul ateniei, att n rndul cercettorilor ct i a publicului larg prinmultitudinea de aplicaii practice pe care le au sau le poate avea.

    Primi pai au fost fcui la sfritul secolului al XIX-lea i nceputul secolului alXX-lea, de ctreHermann von Helmholz, Ernst Mach iIvan Pavlov care au emis teorii

    asupra procesului de nvare, asupra condiionrii, etc. Aceste teorii nu au adus nici unfel de modele matematice i nu se putea vorbi nc de un nceput. Adevratul punct depornire al acestui domeniu se situeaz la nceptulanilor 1940 cnd Warren McCulloch iWalter Pitts au pus n eviden primul model formal al neuronului, evideniindcapacitatea de calcul a acestuia i posibilitatea de implementare cu ajutorul circuitelorelectronice.

    La sfritul anilor 1940, Hebb, avnd la baz teoriile lui Pavlov, a enunatprincipiul adaptrii permeabilitii membranei sinaptice conform cruia de fiecare dat

    http://ro.wikipedia.org/w/index.php?title=Hermann_von_Helmholz&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=Hermann_von_Helmholz&action=edit&redlink=1http://ro.wikipedia.org/wiki/Ernst_Machhttp://ro.wikipedia.org/wiki/Ivan_Pavlovhttp://ro.wikipedia.org/wiki/Ivan_Pavlovhttp://ro.wikipedia.org/wiki/Anii_1940http://ro.wikipedia.org/wiki/Anii_1940http://ro.wikipedia.org/wiki/Anii_1940http://ro.wikipedia.org/wiki/Ivan_Pavlovhttp://ro.wikipedia.org/wiki/Ernst_Machhttp://ro.wikipedia.org/w/index.php?title=Hermann_von_Helmholz&action=edit&redlink=1
  • 7/27/2019 Retele neuronale_ok.doc

    5/39

    6

    cnd o conexiune sinaptic este folosit, permeabilitatea ei crete. Acest principiu st labaza procesului de nvare prin modificarea ponderilor sinaptice.

    n anii 1950 apare i prima aplicaie practic, Frank Rosenblatt realizeaz oimplementare hard, numitperceptron, utilizat n recunoaterea caracterelor. Tot n anii1950 Bernard Windrow i Ted Hoff dezvolt algoritmi de nvare pentru reele

    neuronale liniare cu un singur nivel de uniti funcionale. Algoritmii lor sunt bazai peminimizarea erorii pe setul de date de antrenare. n anul 1969 Marvin Minsky i SeymorPapert public cartea "Perceptrons", care pune n eviden limitrile la care sunt supusereelele neuronale cu un singur nivel de uniti funcionale. Acesta prea a fi sfritul reelelor neuronale. Publicarea acestui material, corelat cu lipsa unor echipamente decalcul digital suficient de puternice, face ca o mare parte din companiile care investeau ncercetrile din acest domeniu s se reorienteze, iar o mare parte dintre cercettori iabandoneaz studiul n aceast direcie.

    Anii 1970 sunt mult mai linitii i doar civa cercettori mai sunt cu adevratactivi n domeniu. Printre ei merit amintii Teuvo Kohonen, Sames Anderson precum iStephen Grossberg (foarte activ n cercetarea reelelor cu auto-organizare).

    Anii 1980 aduc, pe lng noi descoperiri n domeniul reelelor neuronale, icalculatoare digitale mai puternice capabile s ajute cercettorii n demersurile lor. Astfelc la nceputul anilor 1980, odat cu o nou abordare a reelelor folosind formalismulfizicii statistice prin punerea n eviden a analogiei ntre reelele recurente (destinatememorrii asociative) i sistemele de spini magnetici propus de John Hopfield semarcheaz nceputul unei noi perioade de interes n domeniu, caracterizat prinextinderea domeniilor de aplicabilitate i volumul mare de implementri soft i hardfolosite n aplicaiile practice.

    3. Definiii

    O serie de cercettori au definit reelele neuronale.Teuvo Kohonen (Helsinki University of Technology, Finland):Reelele neurale artificiale reprezint ansambluri de elemente de procesare simple

    (de regul, adaptive), puternic interconectate si opernd n paralel, care urmresc sinteracioneze cu mediul nconjurtorntr-un mod asemanator creierelor biologice.

    Urmtoarele aspecte sunt comune att reelelor neurale artificiale ct i celorbiologice:

    - reprezentarea si procesarea informaiei n forma analogica (care permitedesfurarea n paralel a mai multor procese n mod asincron);

    - abilitatea de a efectua operaii de natur statistic asupra datelor de lucru (operaiunide mediere, de regulcondiionat);- coreciede erori i degradare gradual a performanelor la apariia acestora;- capacitate de adaptare la un mediu n continu schimbare.

    Reelele neuronale artificiale s-au impus ca instrumente puternice de analiz aunor volume mari de date experimentale, generate de procese fizice ghidate de leginecunoscute, pentru care aceste sisteme pot oferi modele adecvate.

    http://ro.wikipedia.org/wiki/Anii_1950http://ro.wikipedia.org/w/index.php?title=Bernard_Windrow&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=Ted_Hoff&action=edit&redlink=1http://ro.wikipedia.org/wiki/Anii_1970http://ro.wikipedia.org/wiki/Anii_1980http://ro.wikipedia.org/w/index.php?title=John_Hopfield&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=John_Hopfield&action=edit&redlink=1http://ro.wikipedia.org/wiki/Anii_1980http://ro.wikipedia.org/wiki/Anii_1970http://ro.wikipedia.org/w/index.php?title=Ted_Hoff&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=Bernard_Windrow&action=edit&redlink=1http://ro.wikipedia.org/wiki/Anii_1950
  • 7/27/2019 Retele neuronale_ok.doc

    6/39

    7

    Aceast tehnologie nu i propune ca obiectiv principal obinerea unor circuitemotivate anatomic, ci funcional, astfel nct s beneficiem de metode de procesareeficiente complementare celortradiionale, disponibile sub forma de algoritmi de calcul icomponente hard si soft.

    Simon Haykin (Mc Master University, Canada):

    O reea neuronal reprezint un sistem de procesare paralel care prezint ocapacitate natural de a acumula experiena i de a o folosi. Se aseamn cu creierulnatural sub doua aspecte:

    1. cunotinele sunt dobndite n urma unui proces de nvare;2. cunotinele sunt stocate n valorile interconexiunilor dintre neuroni (denumiteponderi sau sinapse).Interesul pentru sinteza unor reele neuronale artificiale este motivat de

    performantele creierelor naturale, care oferdovada concretc modul de calcul paraleldublat de tolerana la erori este nu numai posibil, dar i rapid i eficient. Astfel, din punctde vedere ingineresc, neurobiologia poate fi privita ca o pepinier de idei noi, posibilde utilizat pentru rezolvarea unor probleme prea complicate pentru metodele tradiionale.

    Un exemplu concret de ntreptrundere a abordrii strict tehnice cu cea biologica lconstituie implementarea aa-numitelor circuite integrate neuromorfice, bazate pemodele ale retinei sau al urechii interne.

    Robert Hecht-Nielsen (University of California at San Diego, USA):O reea neuronal este o structur de procesare distribuit, opernd n paralel,

    format din procesoare simple (care posed memorie local i efectueaz operaiidependente de informaii localizate spaial) interconectate prin legturi unidirecionale.Fiecare procesor elementar are o singur ieire, care este distribuit ctre un numrnelimitat de alte asemenea procesoare.

    Caracterul local al operaiunilor efectuate se refer la condiia ca valoareainstantanee a rspunsului fiecrui neuron elementar s depind exclusiv de valorileinstantanee ale semnalelor de intrare i de valorile interconexiunilor aferente acestora.

    Reelele neuronale artificiale ofero baz solid pentru proiectarea unor sistemecomplexe de prelucrare a semnalelor. Au fost propuse deja o serie ntreag de modulefuncionale care realizeaz sarcini precise i care pot fi interconectate sub forma unorarhitecturi flexibile, pot fi supuse unui proces automat de ajustare a parametrilor specificii testate cu baze de date corespunztoare unoraplicaii practice concrete. Cnd o astfelde abordare automatizat la nivel de design de detaliu se va impune, rolul proiectantuluiuman se va concentra pe aspectele globale, la nivel de schem-bloc ale sistemului.

    4. Structura reelelor neuronale artificiale

    Dei se aseamn n funcionare cu creierul uman, reelele neuronale au ostructur diferit de cea a creierului. O reea neural este mult mai simpl dectcorespondentul uman, dar la fel ca icreierul uman, este compus din uniti puternice decalcul, mult inferioare ns corespondentului uman,neuronul.

    Reelele neuronale reprezint forma dominant a modelului conexionist astzi.Aceste modele conexioniste se bazeaz pe dou principii ale gndirii:

    http://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Neuronhttp://ro.wikipedia.org/wiki/Neuronhttp://ro.wikipedia.org/wiki/Neuronhttp://ro.wikipedia.org/wiki/Creierhttp://ro.wikipedia.org/wiki/Creier
  • 7/27/2019 Retele neuronale_ok.doc

    7/39

    8

    1. orice stare mental dat poate fi descris printr-un vector N-dimensional, avndvalori numerice de activare n unitile neuronale ntr-o reea.

    2. memoria este creat prin modificarea ponderilor dintre unitile neurale. Ponderilesunt reprezentate printr-o matrice ptratic N-dimensional.n mod obinuit,o reea neuronal este antrenat astfel nct o intrare particular

    s conduc la o ieire int. Reeaua va fi ajustat, bazndu-se pe comparaiile dintredatele de ieire pe care le genereaz i ieirile int, pn cnd ieirile reelei se potrivesccu ieirile int.

    Procedeul folosit pentru a executa procesul de antrenare se numete algoritm denvare, care are funcia de a modifica ponderile sinaptice ale reelei ntr-un modsistematic pentru a atinge obiectivul dorit de proiectare. Exist dou tipuri importante denvare: supervizat i nesupervizat. nvarea supervizat presupune aplicarea uneiintrri reelei, dup care se compar ieirea produs de reea cu ieirea dorit i semodific ponderile astfel nct s se minimizeze diferena dintre cele dou. Acest tip deantrenare d rezultate bune, ns nu are corespondent n lumea real, ntruct nu exist unmecanism de instruire care s compare ieirile dorite cu reale i s propage coreciile n

    reeaua de neuroni. n nvarea nesupervizat mulimea de antrenare const numai dinvectori de intrare. Iar scopul algoritmului este de a produce vectori consisteni, n sensulc dou semnale foarte apropiate s produc rspunsuri identice sau foarte asemntoare.Astfel perechile (vector de intrare, vector de ieire) similare sunt grupate n clase, procesnumit i clusterizare.

    n cazul nvrii supervizate distingem dou modaliti de antrenare: antrenarea de tip bach const n modificarea ponderilor i a brias-ului

    presupunnd ca fiind dat o mulime de vectori de intrare antrenarea incremental modific ponderile i brias-ul unei reele imediat dup

    introducerea unui vector de intrare. Antrenarea incremental poart numele i deantrenare on-line sau adaptive.

    Reelele neuronale au fost antrenate s efectueze funcii complexe n domeniidiverse de aplicabilitate, incluznd recunoaterea, identificarea i clasificarea formelor,sisteme de vorbire, imagine i control.

    4.1.Caracteristicile reelei neuronale

    Cu toate c asemnarea ntre sistemul nervos biologic i reelele neuronaleartificiale este relativ mic, reelele neuronale artificiale prezint un numr surprinztor decaracteristici ale creierului. De exemplu, acestea pot nva din experien, generaliza din

    anumite exemple altele noi i sintetiza caracteristicile eseniale din intrri ce conin idate irelevante. Un mare avantaj al reelelor neuronale este c pot descrie o problem is o rezolve n acelai timp, prin autoorganizarea lor i nu prin program. Acest proces deauto-organizare are loc pe parcursul unui proces de nvare obinut prin cooperarea uneitopologii iniiale, a unor reguli de nvare i a unui numr mare de antrenamente.

    Caracteristicile cele mai importante ale reelelor neuronale sunt: Capacitatea de a nva: reelele neuronale artificiale nu necesit programe

    puternice, ci sunt mai degrab rezultatul unor antrenamente asupra unui set de

  • 7/27/2019 Retele neuronale_ok.doc

    8/39

    9

    date. Reelele neuronale artificiale au un algoritm de nvare, dup care ponderileconexiunilor sunt ajustate pe baza unor modele prezentate. Cu alte cuvinte,reelele neuronale nva din exemple, precum copii nva s recunoasc unobiect pe baza unor instane ale acelui tip de obiect;

    Capacitatea de generalizare: dac au fost instruite corespunztor, reelele suntcapabile s dea rspunsuri corecte i pentru intrri diferite fa de cele cu care aufost antrenate, atta timp ct aceste intrri nu sunt foarte diferite;

    Capacitatea de sintez: Reelele neuronale artificiale pot lua decizii sau trageconcluzii cnd sunt confruntate cu informaii afectate de zgomote sau cuinformaii irelevante sau pariale.Datorit acestor trsturi ale prelucrrii informaiei reelele neuronale pot rezolva

    probleme complexe care sunt dificil de abordat prin metode clasice. Cu toate acestea,cercettorii recunosc c mai au un drum lung de parcurs pn vor ajunge s construiascun calculator care s imite creierul omenesc. Inteligena la care au ajuns n prezent celemai sofisticate reele neuronale este sub nivelul unui copil de civa ani. Cu toate acesteanu trebuie minimizat sau ignorat importana reelelor neuronale artificiale i este

    posibil ca pe viitor, cu ajutorul lor s ajungem la o cunoatere mai aprofundat afenomenelor ce au loc in creierul uman.O alt caracteristic a reelelor neuronale este nvarea, un proces prin care

    parametrii variabili ai unei reele neuronale se adapteaz printr-un proces continuu destimulare din partea mediului n care este inclus. Tipul de nvare este determinat demodul n care au loc schimbrile parametrilor.

    Definiianvrii implic urmtoarea secven de evenimente:reeaua neuronal este stimulat de un mediu;reeaua neuronal sufer schimbri datorit acestor stimulri;reeaua neuronal rspunde n mod diferit mediului datorit schimbrilor care au aprutn structura sa intern.

    Ceea ce recomand reelele neuronale artificiale este raportul favorabilperforman, complexitate, aflat ntr-o continu cretere i care este mult mai mare dectcel al sistemelor de inteligen artificial implementate prin alte tehnologii.

    Din punct de vedere structural, reelele neuronale artificiale se pot caracteriza pebaza a 3 elemente:

    modelul adoptat pentru elementul de procesare individual, structura particular de interconexiuni (arhitectura) mecanismele de ajustare a legturilor (algoritmii de nvare).

    4.1.1.Modele ale neuronului artificial

    Modelu l general al uneireele neuronaleNeuronul prezint o structur foarte simpl, avnd: un nivel de activare (de regul ntre -1 i 1);o valoare de ieire; o valoare rezidual; o funcie de activare; o mulime de conexiuni de intrare; o mulime de conexiuni de ieire.

  • 7/27/2019 Retele neuronale_ok.doc

    9/39

    10

    Figura 1. Modelul neuronului

    Fiecrei conexiuni i corespunde o valoare real, numit pondere sinaptic, caredeterminefectul intrrii respective asupra nivelului de activare a neuronului. n figuraanterioar,xi reprezintintrrile, wiponderile sinaptice, f funcia de activare, valoarea

    prag iary ieirea, care se calculeazdup formula:

    n

    i

    iixwfy1

    Nu se restrnge generalitatea dac se consider = 0, deoarece acest lucru esteechivalent cu adugarea unei noi conexiuni de intrare, cu valoare 1 i pondere :

    Figura 2.

    McCulloch i Pitt foloseau o funcie de activare sigmum, cu valorile -1 i 1:

    0,1

    0,1

    s

    ssf

    Reeaua neuronala (RN) const dintr-o mulime de elemente de prelucrare(neuroni, uniti cognitive au noduri ale reelei) nalt interconectate.

  • 7/27/2019 Retele neuronale_ok.doc

    10/39

    11

    Se considera o reea cu p neuroni. Acetia sunt conectai printr-o mulime deponderi de conexiune sau ponderi sinaptice. Fiecare neuron are n i intrri si o ieire yi.Intrrilereprezint semnale venite de la alineuroni sau din lumea exterioar.

    Intrrile xi ale neuronului i se reprezint prin numerele reale x1i,... xn

    i. Fiecareneuron i are ni ponderi sinaptice, una pentru fiecare intrare a sa. Aceste ponderi se

    noteaz cu w1i

    , w2i

    ,..., wni

    i reprezint numere reale carepondereaz semnalul de intrarecorespunztor. Avantajul acestei abordrieste acela c pragul poate fi ajustat mpreun cucelelalte ponderi n timpul procesului de instruire.

    Funciile sigmoidele reprezint forme netezite ale funciei prag liniare. Toateaceste funcii sunt continue, derivabile i monoton cresctoare. Aceste proprieti suntfoarte convenabile pentru aplicaii. Observm cfunciile sigmoidele, ca i cele cu pragliniar, pot produce i valori de ieire intermediare celor dou valori extreme (0 si 1).Acest lucru reprezint o facilitate pentru calculul analogic i pentru modelarea unei logicimultivalente.

    4.2.Arhitectura reelei

    Exist numeroase modaliti de interconectare a neuronilor elementari, dar pot fiidentificate dou clase de arhitecturi:

    cu propagare a informaiei numai dinspre intrare spre ieire, reele de tipfeedforward

    reele recurente(cu reacie).

    Figura 3. O reea neuronal de tip feedforward

    Un dezavantaj al reelelor neuronale l constituie lipsa teoriei care s precizezetipul reelei i numrul de neuroni elementari, precum i modalitatea de interconectare.Exist cteva tehnici de tippruningsau de tip learn and grow, dar acestea sunt n intensecercetri.

    Exist cteva structuri de reele neuronale artificiale consacrate i foarte desutilizate, deoarece au oferit rezultate ncurajatoare n diverse aplicaii :

    http://ro.wikipedia.org/wiki/Imagine:Retea_neurala_MLP.jpg
  • 7/27/2019 Retele neuronale_ok.doc

    11/39

    12

    Reele cu nvare supervizat:ofeed-back

    MainaBoltzmann; Learning Vector Quantization (LVQ);

    o feed-forward

    Perceptron, Adaline, Madaline ; Reele cu nvare nesupervizat:

    o feed-back

    Reele Grossberg; ReeleHopfield(discrete i continue); Memorii asociative (bidirecionale i temporale); ReeleKohonen cu auto-organizare;

    o feed-forward

    Memorii asociative liniare, distribuite; Memorii asociativefuzzy.Reelele multistrat nu asigur o cretere a puterii de calcul n raport cu reelele cu

    un singur strat dac nu e prezent o funcie de activare neliniar ntre straturi.Funahashia demonstrat c o reea (posibil infinit) cu un singur strat ascuns este capabil caproximeze orice funcie continu.

    Reele neuronale cu un singur strat

    nceputul reelelor neuronale artificiale este legat de problema clasificrii unorobiecte definite de o serie de atribute. Cel mai simplu model era funcia SI logic ntreanumite atribute (prezente sau absente), care s determine o anumit clas. Totui, uneleclase pot avea atribute comune, iar unele valori, n cazul n care provin dintr-unmecanism perceptual, pot fi afectate de zgomot. Soluia s-a bazat pe faptul de bun simt cunele atribute sunt mai importante dect altele pentru determinarea unei anumite clase. O

    clas era determinat dac sumarea valorilor ponderate depea un anumit prag, n bunconcordan cu legea biologictotul sau nimic. (dac un impuls nu depete un pragminim, el nu produce nici un rspuns).

    Reele neuronale multi stratNeuronii pot fi conectai in diferite moduri pentru a forma o reeaneuronal. Un

    model uzual de topologie consider neuronii organizai n mai multe straturi.O reea neuronal multistrat conine dou sau mai multe straturi de neuroni.

    Primul strat primete intrrile din mediu. Ieirile neuronilor din acest strat constituieintrri pentru neuronii stratului urmtor. Ieireareeleieste format din ieirile neuronilorultimului strat. Straturile situate intre primul si ultimul nivel sunt straturi ascunse ale

    reelei. Schema unei astfel de topologii este data in figura 3.Motivul acestei complicri a arhitecturii este legat de faptul c, uneori, modelelearhitecturale mai simple se dovedesc incapabile de a rezolva o problem sau o clas deprobleme. Dac o reea dat nu poate rezolva o problema, este uneori suficient sa mrimnumrul neuronilor din reea pstrnd vechea arhitectur. In alte situaii, pentrurezolvarea problemei este necesar s modificam arhitectura reelei, introducnd unul saumai multe straturi neuronale noi.

  • 7/27/2019 Retele neuronale_ok.doc

    12/39

    13

    Semnalul se propag n reea dinspre stratul de intrare spre cel de ieire, avnd opropagare nainte a semnalului in reea (reea cu transmitere nainte a semnalului).

    Se pot considera arhitecturi de reea n care exist conexiuni ntre neuroniiaceluiai strat. De asemenea, uneori poate fi util a fi luate n vedere conexiuni de la unneuron spre neuroni aflai n stratul anterior (mai apropiat de intrarea reelei). Alteori,

    conexiunile pot lega doi neuroni care nu se aflneaprat n straturi adiacente.ModelulPerceptronului

    Perceptronul reprezint modelul din care s-au dezvoltat toate celelalte reeleneuronale.

    Arhitectura perceptronului standard este cea mai simpl configuraieposibil aunei reelei ea permite ca instruirea acesteia s se realizeze folosind un algoritm simplui eficient.

    Algoritmul este reprezentat de o clas larg de algoritmi de instruire, vectorii dinmulimea de instruire se reprezint reelei mpreun cu clasa creia ii aparin. Daca au

    fost memorate suficient de multe obiecte din fiecare clas, se poate construi oreprezentare intern a fiecrei clase prin ponderile de conexiune ale reelei.

    Perceptronul cu un singur strat

    Perceptronul cu un singur strat este cea mai simpla reea neuronala.Valorile de intrare pot fi binare sau numere reale. Aceasta reea elementara arecapacitatea de a nva sa recunoasc forme simple.

    Un perceptron este capabil sa decid daca un vector de intrare aparine uneia dincele doua clase de instruire, notate cu A1 si A2.

    Acest perceptron este implementat cu un singur neuron. Daca x este vectorul ce

    reprezint intrrile neuronului, putem calcula suma ponderat a elementelor de intrare.Ponderile conexiunilor i pragul (componentele vectorului v) unui perceptron se potadapta folosind un algoritm de instruire simplu numit algoritmul perceptronului.

    Perceptronul multistrat

    ncercrile de rezolvare a problemelor neseparabile liniar au condus la diversevariante privind numrul de straturi de neuroni si funciile de activare utilizate.Perceptronul multistrat (engl. multilayer perceptron., MLP) este tipul de reea neuronalcel mai cunoscut si mai des folosit.

    De cele mai multe ori, semnalele se transmit n interiorul reelei ntr-o singur

    direcie: de la intrare spre ieire. Nu exist bucle, ieirea fiecrui neuron neafectndneuronul respectiv. Aceast arhitectur se numete cu propagare nainte (engl.feed-forward) (figura 4). Straturile care nu sunt conectate direct la mediu se numesc ascunse.Exist n literatura de specialitate o controvers privind considerarea primului strat (deintrare) ca strat propriu-zis n reea, de vreme ce singura sa funcie este transmitereasemnalelor de intrare spre straturile superioare.

  • 7/27/2019 Retele neuronale_ok.doc

    13/39

    14

    Exist i reele recurente(engl. .feed-back.), n care impulsurile se pot transmite nambele direcii, datorit unor conexiuni de reacie n reea. Aceste tipuri de reele suntfoarte puternice si pot fi extrem de complicate. Sunt dinamice, starea lor schimbndu-sepermanent, pn cnd reeaua ajunge la un punct de echilibru iar cutarea unui nouechilibru are loc la fiecare schimbare a intrrii.

    Introducerea mai multor straturi a fost determinat de necesitatea creteriicomplexittii regiunilor de decizie. Dup cum am artat n paragraful anterior, unperceptron cu un singur strat si o ieire genereaz regiuni de decizie de forma unorsemiplane. Adugnd nc un strat, fiecare neuron se comport ca un perceptron standardasupra ieirii neuronilor din stratul anterior si astfel ieireareelei poate aproxima regiunide decizie convexe, rezultate din intersecia semiplanelor generate de neuroni. La rndul

    su, un perceptron cu trei straturi poate genera zone de decizie arbitrare (figura 5).Din punctul de vedere al funciei de activare a neuronilor, s-a constatat c reelele

    multistrat nu asigur o cretere a puterii de calcul n raport cu reelele cu un singur stratdac funciile de activare rmn liniare, deoarece o funcie liniar de funcii liniare estetot o funcie liniar. Puterea perceptronului multistrat provine tocmai din funciile deactivare neliniare. n prezent, funciile cele mai des utilizate n prezent sunt sigmoidaunipolar (sau logistic), afisat n figura 6:

  • 7/27/2019 Retele neuronale_ok.doc

    14/39

    15

    si sigmoida bipolar (tangenta hiperbolic), afisat n figura 7 pentru a = 2:

    za

    za

    e

    esf

    1

    1

  • 7/27/2019 Retele neuronale_ok.doc

    15/39

    16

    Se poate constata c funciile sigmoide se comport aproximativ liniar pentruvalori absolute mici ale argumentului si se satureaz, prelund oarecum rolul de prag,pentru valori absolute mari ale argumentului.

    Funahashi a demonstrat c o reea (posibil infinit) cu un singur strat ascuns este

    capabil s aproximeze orice funcie continu. Astfel se justific proprietateaperceptronului multistrat de aproximator universal.

    Arhitecturi moderne de reele neuronalen aceast seciune sunt prezentate dou din cele mai noi arhitecturi de reele

    neuronale, reele cu eficien crescut, aprute din nevoia de a nltura unele neajunsuriale modelelor clasice (ex. perceptronul multistrat)

    Reele neuronale probabilistice

    Modelarea reelelor neuronale cu ajutorul teoriei probabilitilor sau a teoriilor deincertitudine aduce o serie de avantaje fade abordrile strict deterministe. Acestea sunt:

    - reprezentarea mai veridic a modului de funcionare a reelelor neuronalebiologice, n care semnalele se transmit mai ales ca impulsuri;

    - eficiena de calcul mult superioarcelei din cadrul reelelor neuronale ,nainte-napoi';

    -implementare hardware simpl pentru structuri paralele;- instruire uoar i cvasiinstantanee, rezultnd posibilitatea folosirii acestor reele

    neuronale n timp real;- forma suprafeelor de decizie poate fi orict de complex prin modificarea unui

    singur parametru (de netezire) s, aceste suprafee putnd aproxima optim suprafeeleBayes;- pentru statistici variabile n timp, noile forme pot fi suprapuse simplu peste cele

    vechi;~ comportare bun la forme de intrare cu zgomot sau incomplete.

    Reele neuronale Fuzzy

    Combinarea celor doua clase de sisteme cognitive : nuanate (fuzzy)i neuronale,s-a impus prin performanele bune, de civa ani.Fuzzyficarea arhitecturilor neuronale mrete capacitatea reelelor neuronale de a

    recunoate (clasifica) forme complexe, distorsionate sau incomplete.O structur de reea neuronal a fost propus de ctre Watanabe . Acest modelfolosete neuronul logic.

  • 7/27/2019 Retele neuronale_ok.doc

    16/39

    17

    4.1.3.Algoritimi de nvare

    Principala deosebire a reelelor neuronale fa de alte sisteme de prelucrare ainformaiilor l constituie capacitatea de nvare n urma interaciunii cu mediulnconjurtor, i mbuntirii performanelor. O reprezentare corect a informaiilor, care

    s permit interpretarea, predicia i rspunsulla un stimul extern, poate permite reelei sconstruiasc un model al procesului analizat. Acest model va putea rspunde astfel unorstimuli neutilizai n procesul prealabil de nvare. Informaiile utilizate n procesul denvare pot fi: informaii disponibile a priori sau perechi intrare-ieire(care stabilescrelaii de tipul cauz-efect), iar modul de reprezentare intern urmrete un set de regulibine documentate. Aceti algoritmi pot fi clasificai dup mai multe criterii cum ar fi:disponibilitatea rspunsului dorit la ieirea reelei, existena unui model analitic, tipulaplicaiei n care sunt utilizai, dar cele mai multe documentaii se rezum la dou clasemari: nvarea supravegheat (care presupune existena n orice moment a unei valoridorite a fiecrui neuron din stratul de ieire) i nvarea nesupravegheat(n care reeauaextrage singur anumite caracteristici importante a datelor de ieire, n urma unui gen de

    competiie ntre neuronii elementari). n ultima perioad se remarc nc o clas dealgoritmi, algoritmii de nvare folosind un critic, rezultai n urma observaiilorexperimentale fcute pe animale, acetiafiind de tipul recompens/pedeaps.

    Algori tmul de instru ir e al perceptronului

    Se va prezenta algoritmul standard pentru instruirea perceptronului cu dou clasede instruire.

    La primul pas al algoritmului de instruire se iniializeaz valorile ponderilor sipragul. Ponderile iniiale sunt componentele vectorului v1. Se aleg pentru ponderileiniiale numere reale mici si nenule. Se alege valoarea constantei de corecie c (de obicei0 < c 1).

    Constanta c controleaz rata de adaptare a reelei. Alegerea ei trebuie sa satisfaccerine contradictorii: pe de o parte exista necesitatea de a obine o adaptare rapida aponderilor la intrri si pe de alta parte trebuie sa se tina seama de necesitatea ca mediereaintrrilorprecedente sa genereze o estimare stabila a ponderilor.

    Algoritmul de nvare al perceptronului comparieireaprodus de reea cu clasacorespunztoare a vectorului de intrare. Dac s-a produs o clasificare eronat, atuncivectorul pondere este modificat. n caz contrar, el rmne neschimbat.

    Dac la ppai consecutivi nu se produce nici o modificare a vectorului pondere,atunci toi vectorii (formele) de instruire sunt corect clasificai de ultimul vectorponderare rezultat. Am obinut un vector soluie i algoritmul se oprete cu aceastadecizie. Procedura de instruire descris mai sus conduce la algoritmul urmtor pentruinstruirea perceptronului :

    L imi tele perceptronului

    n multe probleme concrete de clasificare i de instruire intervin clase de obiectecare nu sunt liniar separabile. Deoarece perceptronul nu poate discrimina dect clase

    http://ro.wikipedia.org/w/index.php?title=%C3%8Env%C4%83%C5%A3are&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=%C3%8Env%C4%83%C5%A3are&action=edit&redlink=1http://ro.wikipedia.org/w/index.php?title=%C3%8Env%C4%83%C5%A3are&action=edit&redlink=1
  • 7/27/2019 Retele neuronale_ok.doc

    17/39

    18

    liniar separabile, aplicarea acestui algoritm n rezolvarea unor probleme concrete estesever limitat.

    Cea mai celebr i una dintre cele mai simple probleme care nu pot fi rezolvate deun perceptron este, problema calculrii valorilorfunciei logicesau exclusiv

    Problema poate fi rezolvata de un perceptron cu mai multe straturi.

    Aceast limitare, nu se datoreazalgoritmului, ci este legat de topologia foarte simpl areeleiutilizate. Dac problema de instruire necesit regiuni de decizie mai complicate,atunci trebuie mrit complexitatea reelei.

    Propagarea napoi a eror i i

    Algoritmul Back Propagation este considerat n mod uzual, ca fiind cel maiimportant i mai utilizat algoritm pentru instruirea reelelorneuronale.

    Algoritmul Back Propagation este o metod de instruire n reelele neuronalemultistrat cu transmitere nainte (reeleunidirecionale), n care se urmrete minimizareaerorii mediiptratice printr-o metoda de gradient.

    Algoritmul Levenberg Marquardt este unul dintre cei mai importani algoritmiutilizai pentru minimizarea erorii ptratice medii a reelelor neuronale.

    Caracteristica eseniala a reelelorcu doua straturi este ca eleproiecteaz forme deintrare similare n forme de ieire similare fapt ce permite sa fac generalizrilerezonabile i s prelucreze acceptabil forme care nu li s-au mai prezentat niciodat.

    Procese denvaren sisteme cu inteligen artificial

    Inteligena artificial, ca i n cazul inteligenei biologice se dobndete printr-unproces continuu i de durat de nvare, de aceea problema nvrii ocup un locimportant n cercetarea mainilorauto-instruibile (machine learning).

    Prin nvarea automat se nelege studiul sistemelor capabile de a-i mbuntiperformanele, utiliznd o mulime de date de instruire.

    Sistemele cu inteligen artificialobinuite au capacitai de nvare foarte redusesau nu au de loc. n cazul acestor sisteme cunoaterea trebuie s fie programat ninteriorul lor. Dac sistemele conin o eroare, ele nu o vor putea corecta, indiferent decte ori se execut procedura respectiv. Practic aceste sisteme nu-i pot mbuntiperformantele prin experien i nici nu pot nva cunotine specifice domeniului, prinexperimentare. Aproape toate sistemele cu inteligen artificial sunt sisteme deductive.Aceste sisteme pot trage concluzii din cunoaterea ncorporat sau furnizat, dar ele nupot s genereze singure noi cunotine.

    Pe msur ce un sistem cu inteligen artificial are de rezolvat sarcini maicomplexe, crete i cunoaterea ce trebuie reprezentat n el (fapte, reguli, teorii). ngeneral, un sistem funcioneazbine, n concordan cu scopul fixat prin cunoatereafurnizat, dar orice micare n afara competenei sale face ca performanele lui sscadrapid. Acest fenomen este numit i fragilitatea cunoaterii.

    Una din direciile de cercetare n privina mainilor instruibile este modelareaneuronal. Modelarea neuronal dezvolt sisteme instruibile pentru scopuri generale, carepornesc cu o cantitate mic de cunotine iniiale. Astfel de sisteme se numesc reele

  • 7/27/2019 Retele neuronale_ok.doc

    18/39

    19

    neuronale, sisteme cu auto-organizare sau sisteme conexioniste. Un sistem de acest tipconsta dintr-o reea de elemente interconectate de tip neuron, care realizeaz anumitefuncii logice simple.

    Un astfel de sistem nva prin modificarea intensitii de conexiune dintreelemente, adic schimbnd ponderile asociate acestor conexiuni. Cunoaterea iniial ce

    este furnizat sistemului este reprezentat de caracteristicile obiectelor considerate i de oconfiguraieiniial a reelei.Sistemul construiete o reprezentare simbolic a unei mulimi date de concepte

    prin analiza conceptelor si contraexemplelor acestor concepte. Aceast reprezentare poatefi sub forma unei expresii logice, arbori de decizie, reguli de producie sau reelesemantice.

    Istoria ReelelorNeuronale Artificiale (RNA) sau, simplu, a ReelelorNeuronalencepe cu modelul de neuron propus de ctreMcCulloch si Pitts (un logician i unneurobiolog) n 1943, i este numit acest model neuronal, neuronul MP.

    Modelul MP presupune ca neuronul funcioneaz ca un dispozitiv simplu, alecrui intrri sunt ponderate. Ponderile pozitive sunt excitatoare iar ponderile negative

    sunt inhibitoare. Daca excitaia totala, adic suma ponderata a intrrilor, depete unanumit prag, atunci neuronul este activat si emite un semnal de ieire (ieirea are valoarea+1). Daca excitaia totala este mai mica dect valoarea prag, atunci neuronul nu esteactivat si ieirea lui se considera a fi zero.

    Hebb (1949) a propus un mecanism calitativ ce descrie procesul prin careconexiunile sinaptice sunt modificate pentru a reflecta mecanismul de nvare realizat deneuronii interconectai atunci cnd acetia sunt influenai de anumii stimuli ai mediului.

    Rosenblatt (1958 1959) a propus un dispozitiv numit perceptron. Perceptronuleste bazat pe interconectarea unei mulimi de neuroni artificial si reprezint primul modelde reea neuronala artificiala

    Bernard Widrow a propus un model neuronal numit ADALINE si o reea cuelemente de acest tip numitMADALINE. ADALINEreprezint acronimul adaptive LinearNeuron sau adaptive linear Element. MADALINE este un acronim pentru Multiple-ADALINE.

    Modelul ADALINEeste in esena identic cu modelul perceptronului. Ieirea estebipolara: +1 sau1.ADALINEeste un dispozitiv adaptiv, in sensul ca exista o procedurabine definita de modificare a ponderilor pentru a permite dispozitivului sa dea rspunsuricorecte pentru o intrare data.

    Reelele neuronale permit rezolvarea unor probleme complicate, pentru care nuavem un algoritm secvenial, dar posedm unele exemple de soluii. nvnd din acesteexemple (faza de instruire), reeaua va fi capabil s trateze cazuri similare (faza delucru).

    Calculatoarele obinuite sunt, desigur, instrumente extrem de adecvate nrezolvarea unui spectru larg de probleme matematice, tiinifice, inginereti.Calculatoarele i dovedesc limitele n domenii n care omul exceleaz, cum ar fipercepiai nvarea din experien.

    ntr-un calculator obinuit elementul esenial este procesorul, caracterizat deviteza mare de lucru. n creier, elementele individuale de proces sunt celulele nervoase(neuronii). Ele sunt mai simple i mai lente dect un procesor de calculator, ns suntfoarte numeroase. Conexiunile dintre neuroni sunt la fel de importante ca i acetia.

  • 7/27/2019 Retele neuronale_ok.doc

    19/39

    20

    Inteligena i procesele memoriei rezid n ntreaga reea de celule i nu n neuroniiindividuali.

    Cortexul cerebral este o reea neuronal natural .O astfel de reeaneuronal arecapacitatea de a gndi, nva, simii de a-i aminti.

    Reelele neuronale artificiale sunt reele de modele de neuroni conectai prin

    intermediul unor sinapse ajustabile. Toate modelele de reele neuronale se bazeaz peinterconectarea unor elemente simple de calcul dintr-o reeadens de conexiuni.Fiecare unitate de proces este capabil sexecute doar calcule simple, dar reeaua,

    ca ntreg, poate avea caliti remarcabile n recunoaterea formelor, rezolvareaproblemelor pentru care nu posedam un algoritm, nvarea din exemple sau dinexperien.

    Paralelismul nalt i capacitatea de nvare reprezint caracteristicilefundamentale ale reelelorneuronale

    Calculul neuronal implic doua aspecte fundamentale: nvareai reprezentareacunoaterii.

    Reelele neuronale achiziioneazcunoaterea prin instruire.

    O reeaneuronala este instruit dac aplicarea unei mulimi de vectori de intrareva produce ieirile dorite. Cunoaterea pe care reeaua neuronal o dobndete estememorat de sinapsele neuronale, mai precis, n ponderile conexiunilor dintre neuroni.

    Muli dintre algoritmii de instruire pot fi considerai ca avndu-i originea nmodelul de nvare propus de ctreDonald Hebb (1949). Donald propune un model alschimbrilor conexiunilor sinaptice dintre celulele nervoase. Conform modelului luiHebb, intensitatea conexiunii sinaptice dintre doi neuroni (ponderea conexiunii) crete decte ori aceti neuroni sunt activai simultan de un stimul al mediului. Acest mecanismeste cunoscut de regula lui Hebb de nvare.

    Daca yi este activarea neuronului i i exist o legtur sinaptic ntre neuronii i ij, atunci, n concordan cu legea lui Hebb, intensitatea conexiunii lor sinaptice esteafectat de: Dw

    ij=c.y

    iyj,unde c este un coeficient de proporionalitate adecvat ce

    reprezint constanta de instruire. Aceasta lege apare ca natural n muli algoritmi denvare. n plus, exist argumente neuro - biologice care sprijin ipoteza c stimuliimediului cauzeazmodificri sinaptice.

    Acest mecanism este un model de nvare nesupervizata n care drumurileneuronale des utilizate sunt intensificate (ntrite). Acest model poate explica fenomenelede obinuin i de nvare prin repetare.

    O reea neuronal artificial care folosete o nvare hebbian va determina ocretere a ponderilor reelei cu o cantitate proporionala cu produsul nivelurilor deexercitare neuronale.

    Fie wij(n) ponderea conexiunii de la neuronul i la neuronul j nainte de ajustare iwij(n+1) ponderea acestei conexiuni dup ajustare. LegeaHebb de nvare se va scrie nacest caz sub forma: wij(n+1) = wij(n) + c yi yj ,unde yieste ieirea neuronului i (intrareaneuronului j), iar yj este ieirea neuronului j.

    O variant a acestei legi de nvare este legea hebbiana a semnalului. Inconcordanta cu aceasta lege modificarea ponderilor este data de: wij(n+1) = wij(n) + cS(yi) S(yi) , unde S este o funciesigmodal.

    Un alt tip de nvare este nvareacompetitiv. n acest caz, mai muli neuroniconcureaz la privilegiul de a-i modifica ponderile conexiunilor, adic de a fi activai.

  • 7/27/2019 Retele neuronale_ok.doc

    20/39

    21

    5. Aplicaii tipice

    Se pot identifica dou direcii distincte nspre care este canalizat ateniacercettorilor din domeniul reelelor neurale. Prima o reprezint identificarea unormodele plauzibile din punct de vedere biologic pentru neuronii elementari i structura deinterconexiuni dintre acetia. Cea de -a doua, "inginereasca", i propune ca scopidentificarea unor principii de procesare suficient de simple i robuste, dependente de unnumr relativ restrns de parametri i care spoat fi folosite pentru rezolvarea unorprobleme concrete.

    Gama aplicaiilorn care se utilizeazreelele neuronale artificiale este extrem devast, extinzndu-se mult n afara preocuprilor legate de tehnic, n general, i deelectronic, n particular.

    n ultimii ani au fost raportate rezultate foarte ncurajatoare privind folosireaacestora n medicin, finane sau construciade automobile i viitorul va demonstra cusigurananmulireai diversificarea acestor exemple. Aceast abordare s-a dovedit utili n cazul unor probleme "clasice", ca de exemplu conversia analognumerica sau calcululde transformate liniare.Clasificare: o problema de clasificare urmrete ncadrarea unei anumite informaii deinteres ntr-o categorie dintr-o listredefinit. Exemple practice ntlnim n recunoatereacaracterelor scrise de mna, n analiza semnalelor biomedicale (n acest moment seutilizeaz reele neuronale pentru descoperirea de boli, prin recunoaterea unor tipare depe cardiograme, .a.), n prelucrarea semnalelor radar. Diversele clase sunt separate deasa-numite suprafee de decizie, ale cror forme pot fi foarte complicate. Aplicaiile de

    clasificare presupun dou etape: reprezentarea convenabil a informaiilor de intrare(extragerea de trsturi semnificative, neredundante) i luarea propriu-zis a deciziei dealocare a etichetei corespunztoare.Aproximare funcional: avnd la dispoziie un set limitatde perechi de date intrare-ieire generate de o funcie necunoscut, scopul urmrit const n estimarea ct maiexact a dependentei funcionale care exprim legtura dintre aceste informaii. nstatistica matematica aceast aplicaie este denumita regresie i beneficiaz de unelerezultate importante n special n cazul dependentelor liniare. n mare msur abordareaneuronal se bazeaz pe existena unor teoreme de aproximare universal specificeanumitor tipuri de reele i ofer cadrul de rezolvare al unor categorii importante deaplicaii precum cele de identificare de sistem, clasificare saupredicie.Predicie: scopul unei aplicaii de predicie este de a pune la dispoziie o valoareviitoare a unei informaii de interes folosind date cunoscute numai pn la momentul detimp considerat. n aceasta categorie sunt incluse aplicaiile financiare, analizafenomenelor meteorologice, studiul consumului energetic. Unul dintre motivele carejustific abordarea neuronaleste c tehnicile de predicie liniar, prezentate pe larg nliteratur, nu conduc la rezultate satisfctoare n astfel de aplicaii importante.Optimizare: numeroase probleme concrete necesit identificarea unui set de valori aleunor parametri astfel nct o anumita informaiede interes (denumitfuncie obiectiv sau

  • 7/27/2019 Retele neuronale_ok.doc

    21/39

    22

    funcie de cost) sa ating valori extreme. Astfel de aplicaii pot fi extrem de dificile, nspecial dacfunciade optimizat este supus unorconstrngeri sau dac problema poateavea mai multe soluii. Un caz particular l reprezint aa-numitele probleme deoptimizare combinaional, la care setul de parametri poate cpta numai valori discrete,dintr-un set redefinit. n unele situaii este suficient ca soluiaobinut, deisuboptimal,

    s asigure un compromis rezonabil ntre calitate i timpul de calcul necesar.Memorie asociativa: n memoriile clasice coninutul unei locaii este accesat prinadresa corespunztoare, care nu are nici o legtur cu informaiastocat. n plus, oriceeroare n precizarea adresei are ca efect recuperarea unei informaii complet diferite. Spredeosebire de acest caz, o memorie asociativ este adresabil prin coninut, n sensul crecuperarea informaiei de interes se face furniznd nu o adres, ci o versiune incomplet,distorsionat sau zgomotoas, chiar a informaiei stocate.

    Figura 8.Aplicaii ale reelelorneurale artificiale: a) clasificare; b) grupare(clusterizare);c) aproximare funcionala; d)predicie; e) optimizare; f) memorie asociativa

  • 7/27/2019 Retele neuronale_ok.doc

    22/39

    23

    Utilizarea RNA la modelarea neural a proceselor

    din ingineria chimic

    1. Implementarea software a RNA-NS for Excel

    NeuroSolutions ofer un mediu de simulare de orientare a obiectelor pentruproiectarea i aplicarea reelelor neuronale. E uor accesibil, att pentru nceptori, ctipentru cei avansai n lucrul cu reele neuronale. Acest soft combin o interfa cu design

    reelistic bazat pe icon-uri, modular cu proceduri avansate de implementare, cum ar fipropagarea invers recurent i propagarea prin timp.Rezultatul e un mediu virtual nerestricionat pentru proiectarea reelelor neuronale

    cu scopul de a rezolva probleme din viaa de zi cu zi cum ar fi predicii financiare,recunoateri bazate pe modele, reglarea proceselor i altele.

    Interfaa grafic

    NeuroSolutions este bazat pe conceptul ca reelele neuronale, componenteleneuronale, cum ar fi axonii, sinapsele i motorul de cutare gradient, sunt bazate pecircuite grafice i conectate mpreun pentru a forma o reea neuronal. Componentele de

    intrare sunt folosite pentru a introduce semnal si componentele de testare sunt folositepentru a vizualiza rspunsul reelei.

    Crearea reelelor neuronale

    In crearea reelelor neuronale cu NeuroSolutions se poate utiliaza NeuralExpert(pentru particularizarea reelei neuronale ) sau NeuralBuilder ( pentru construirea uneitopologii de reea )

  • 7/27/2019 Retele neuronale_ok.doc

    23/39

    24

    Testarea interactiva

    Testarea este un pas important in procesul de proiectare a unei reele neuronale,astfel fiind o parte integrat n NeuroSolutions. Asemeni componentelor neuronale,componentele de testare sunt interconectabile modular; aa cum se observ datele sunt

    independente de cele reprezentate.TestareaDezavantajul reelelor neuronale este faptul c sunt privite ca o tehnologie privat

    (black-box). Testele confer acces n timp real la toate variabilele interne ale reelei,cum ar fi: intrri-ieiri, dimensiuni, erori, stri ascunse, gradieni, sensibilitate

    Vizualizorul matriceal

    Acest test afieazvalorile datelor curente n form matriceal, conferind informaiicantitative despre datele testate. Se poate folosi pentru a obine valoarea oricrei variabile

    interne a reelei.

    Editorul de matrice

    n mod similar cu vizalizorul de matrice, acest test are n plus o funcie important:permite modificarea datelor ce sunt testate.

    Editorul de date (Data Writer)

    Acest editor colecteaz i afieaz date n format matriceal n timpul simulrii.Datele colectate pot fi scrise apoi n fiiere ASCII sau binare, care pot fi folosite pentru

  • 7/27/2019 Retele neuronale_ok.doc

    24/39

    25

    procesarea sau raportarea ulterioar a rezultatelor.

    Diagrama prin puncte

    Aceasta diagrama reprezint grafic datele n timp ale unui singur canal (PE) nfuncie de datele n timp ale aceluiai sau altui canal. Pot fi specificate mai multe perechide canale. Datele din fiecare pereche sunt folosite ca fiind coordonate X i Y pe un graficbidimensional. Punctele sunt colectate dintr-un numr de eantioane i sunt reprezentategrafic prin puncte.

    Alte tipuri de diagrame sunt: diagrama prin bare, diagramaHinton

    Reprezentarea grafic a datelor

    Utilizarea obinuit include afiarea activitii neurale ce variazn timp i curbelede adaptare a reelei. Acest lucru este o necesitate atunci cnd se lucreaz cu problemetemporale cum ar fi predicia seriilor n timp.

  • 7/27/2019 Retele neuronale_ok.doc

    25/39

    26

    Analiza spectrelor

    Analiza spectrelor este folosit pentru a calcula diagrame periodice din dateletemporale. Aceste diagrame sunt generate prin medierea transformatelorFast Fourierin

    timp.

    NeuralExpert

    NeuralExpertproiecteaz i particularizeaz topologia reelei neuronale n funciede datele i soluiile problemei. NeuralExpert va selecta cea mai potrivita topologie areelei neurale bazndu-se pe tipul de problem. Reeaua creat va fi capabil de arezolva problema.

    Folosirea NeuralExpert

    Pentru a rezolva o problem, utilizndNeuralExpertse urmresc urmtoriipai:a)selectarea tipului de problemExista mai multe tipuri de probleme: clasificare, aproximri de funcii, predicie,

    organizare

    b)selectarea fiierului de intrarec) selectarea coloanelor cmpurilor de intrared)selectarea fiierului dorit

    e)indicarea coloanele cmpurilor doritef)setarea complexitii reelei

    Folosirea reelelor neuronale

    NeuralExpertparticularizeaz o reea neuronal specific.NeuralExpertplaseaz butoane direct pe model care explic cum funcioneaz

    aceast reea neuronal specific i permite modificarea sau testarea acesteia.

  • 7/27/2019 Retele neuronale_ok.doc

    26/39

    27

    NeuralBuilder, creator de reele neuronale bazat pe topologie

    Interfaa bazata pe icon-uri a aplicaieiNeuroSolutions asigur o flexibilitate dedesign pentru contrucia unei reele neuronale. Acest nivel de acces necesit n modobinuit existena unei cantiti substaniale de cunotine despre reele neuronale.NeuralBuilder elimin aceasta necesitate prin ascunderea complexittilor reelei i

    simplificarea procesului de design la o procedur uoar, pas cu pas. NeuralBuildervacalcula valorile implicite pentru fiecare parametru bazndu-se pe datele de intrare.Modele suportate de NeuralBuilder sunt: Multilayer Perceptron, Generalized

    Feedforward Network, Modular Neural Network, Jordan/Elman Network, PrincipalComponent Analysis Network, Radial Basis Function Network, Self-Organizing Feature

    Map Network, Time-Lag Recurrent Network, Recurrent Network, Generalized Regression

    Network, Probabilistic Network, CANFIS Network (Fuzzy Logic) si Support VectorMachine.

    Paii urmrii n crearea unei reele neuronale, utiliznd aplicaiaNeuralBuildersunt:

    a)selectarea modelului,b)asigurarea datelor,c)selectarea fiierelorpentru intervalidare,d)configuraia topologiei,e)configuraia straturilor,f)controlul simulrii,g)configurarea testelor.

  • 7/27/2019 Retele neuronale_ok.doc

    27/39

    28

    Administrarea datelor

    Administrarea datelor presupune analizarea, preprocesarea, repartizarea si reprezentareagrafica a datelor. Seturile de date sunt salvate n cadrul proiectului de date, dndposibilitatea de a organiza fiierele i asigura o interfa simpl pentru utilizator in

    manipularea seturilor de date.Se deschide setul de date i se efectueaz cteva tipuri diferite de analize sau secreazo reea neuronal direct n administratorul de date. Administratorul de date este ndirect legtur cu NeuralBuilder, care va calcula valorile implicite pentru fiecareparametru n funcie de datele de intrare. Aceste valori implice vor produce o reeacapabil de a v rezolva problema.

    Etapele de lucru in administrarea datelor sunt:a)deschiderea datelor

    b)analiza datelor ( se selecteazAnalyze Data)c)prelucrarea iniial a datelor(Preprocess Data)d)partiionarea datelor (Partition Data)e) reprezentarea grafic (Plots) n funcie de timpsau X-Y prin puncte.f)manipularea seturilor de date (Manage Datasets)g) construirea reelei neuronale(Build Neural Models) pentru a crea modelul dorit

    de reea neuronal

  • 7/27/2019 Retele neuronale_ok.doc

    28/39

    29

    NeuralBuilderva calcula valorile implicite pentru fiecare parametru in funcie dedatele de intrare. Aceste valori implicite vor produce o reea capabil de a v rezolvaproblema. Toi parametrii reelei construite pot fi particularizai complet.

    Optimizarea genetic

    Toate nivelele NeuroSolutions includ optimizare genetic. Optimizarea geneticpermite optimizarea virtuala a oricrui parametru dintr-o reea neuronal pentru aproduce cea mai mic eroare. De exemplu, numrul unitilor ascunse, vitezele deadaptare i selectarea intrrilor pot fi optimizate pentru a mbunti performana reelei.

    Dimensiunile individuale ale reelei pot fi mbuntite prin optimizarea genetic ca oalternativ la metodele clasice de adaptare.

    Analize de sensibilitate

    Dup adaptarea unei reele neuronale, pentru a ti efectele fiecrei intrri a reeleiasupra ieirilor reelei se folosesc analize de sensibilitate. Analizele de sensibilitate sunt ometod pentru a extrage relaia cauz efect dintre intrrile i ieirile unei reele.Canalele de intrare ce produc valori cu sensibilitate mic pot fi consideratenesemnificative i pot fi ndeprtate din reea. Aceasta va reduce dimensiunea reelei,

    care, ca efect, va reduce complexitatea i timpul de adaptare. Astfel, sunt mbuntiteperformanele reelei.

    Generarea codului

    Nivelul profesionist genereaz cod surs ANSI compatibil C++ pentru orice reea,inclusiv adaptarea. Acestea permit simularea unui prototip GUI ce poate fi rulat pe orice

  • 7/27/2019 Retele neuronale_ok.doc

    29/39

    30

    platform hardware.Nivelul de programare permite integrarea propriilor algoritmi n NeuroSolutions

    prin intermediul fiierelor dll. Fiecare component GUI implementeaz o funcie ceaparine protocolului de simulare NeuroSolutions.

    Macro-uri

    n NeuroSolutions este inclus un limbaj macro uor de neles, care permiteutilizatorului s nregistreze o secven de operaii i s le pstreze ca un program. Oriceaciune care se realizeaz utiliznd mouse-ul sau tastatura poate fi duplicat cainstruciune macro. Aceast caracteristic permite utilizatorului flexibilitate nconstrucia, editarea i rulareareelelor neuronale.

    Automatizarea OLE(OLE Automation)

    NeuroSolution este un server OLE Automation. Aceasta nseamn c

    NeuroSolutions poate primi mesaje automat de la regulatorii OLE Automation, cum ar fiVisual Basic, Microsoft Excel, Microsoft Access i Delphi. Scrierea unui program VB e lafel de simpl ca nregistrarea unui macro NeuroSolutions, apsnd pe butonul VB pentruconversie i copiind codul VB convertit n aplicaia VB dorit. O aplicaie VB poate fiscris pentru a seta un parametru al reelei, a rula reeaua i apoi a returna ieirea reelei.

    Nivele

    Colaborarea cu aplicaia poate fi realizata innd seama de cunotineleutilizatorului pentru nceptori, utilizatori, consultani, profesioniti, programatori,programatori avansai.

    NeuroSolutionspoate fi folosit pentru proiectarea reelelor neuronale ce vorrezolva mai multe tipuri diferite de probleme din viaa de zi cu zi: psihologie, marketing,management, reglarea debitelor, medicin, finane, educaie, semnale, tiine sociale,procesare de imagini, instrumentare, generri de teorii

  • 7/27/2019 Retele neuronale_ok.doc

    30/39

    31

    2. Aplicaie

    2.1. Sulfoclorurarea esterului metilic al acidului 2,4 -diclorfenoxiacetic

    Derivaii fenoxiacetici sunt erbicide auxinice adsorbite in celulele plantelor. Cel maides utilizat este acidul 4-clor-2-metilfenoxiacetic, care in planta sufer o hidroliza lagruparea metil. Alcoolul rmne majoritar neconjugat si esteparial eliberat in mediul decultura.

    Comportarea metabolica a acidului 2,4-diclorfenoxi acetic in celule a fost intensstudiata. Dispunerea pesticidelor in planta este funcie nu doar de metabolismul plantei cisi de activitatea microbial si de fotoreaciile prezente.

    Pentru obinerea sulfoclorurii, acidul clorsulfonic se rcete la 15C pe baie degheata i se adaug ester n poriuni mici, sub agitare puternic. Vasul este rcit cu ghean exterior. Dup adugarea complet a esterului se ridic temperatura la 30-45C i semenine la aceasttemperatur timp de 1 or pentru perfectarea reaciei.

    Reacia generala este:

    OCH2COOCH3

    Cl

    Cl

    + 2 HOSO2Cl

    OCH2COOCH3

    Cl

    ClClO2S

    + H2SO4 + HCl

    Final amestecul se toarn pe ghea, precipitatul format se filtreaz, se spal foartebine cu ap i se usuc. Se obine un produs alb, cristalin cu p.t.=70-72C

    n vederea determinrii condiiilor optime de lucru: raportul molar HSO3Cl/ester2,4-diclor, temperatur si durata de reacie, se realizeaz modelarea neuronala aprocesului de sinteza descris mai sus.

    2.2.Modelarea neuronal direct

    2.2.1. Proiectarea RNA pentru modelarea direct

    La utilizarea reelelor neuronale n probleme de aproximare, se utilizeaz unmodel care transforma un set de date de intrare ntr-un set de date de ieire. Un astfel de

  • 7/27/2019 Retele neuronale_ok.doc

    31/39

    32

    model este obinut prin antrenarea reelei. n faza de antrenare, reeaua este reprezentatn perechi intrare-ieire care au fost stabilite n transformare i au fost modelate.Avantajul reelei neuronale este faptul ca poate genera ( ntre anumite limite) anumitedate dintr-un set de date de intrare. Ca regul, modelul este cutat dintr-un set de datedisponibil care conine trsturi corespunztoare, un numr interesant de relaii i alte

    informaii, care pot fi deduse ntr-o manier direct din calcule teoretice sau metodenumerice.

    Arhitectura reelei neuronale este determinat de conectarea ieirilor neuronale cuali neuroni. n arhitectura standard, neuronii reelelor sunt divizai n grupe diferitenumite staturi. Este posibil arhitectura cu unul sau mai multe straturi. Reeaua neuronalcu mai multe staturi are un numr de intrri, straturi ascunse i ieiri corespunztoareintrrilor, neuronilor ascuni i ieirilor. Reeaua neuronal are o arhitectur multistrat detip feed-forward, numit adesea perceptron multistrat.

    Numrul straturilor ascunse si a unitilor este stabilit n faza de antrenare adiferitelor categorii de reele prin selectarea celei mai performante.

    Intr-o prima etap, datele sunt mprite n seturi de date de antrenare i de

    validare, deoarece este mai important evaluarea performanei reelei neuronale pe dateiniiale dect pe date antrenate. n acest fel poate fi apreciat caracteristica cea maiimportant a modelului reelei neuronale capacitatea de generalizare.

    Cea mai bun topologie de reea a fost determinat pe baza erorii ptratice medii(MSE) pe date de antrenare. Neuronii ascuni, precum i stratul neuronal de ieire,folosesc tangenta hiperbolic ca funcie de activare neliniar. Reeaua a fost antrenatfolosind algoritmul propagrii inverse. Se consider c antrenarea este ncheiat npunctul n care eroarea reelei (MSE) devine suficient de mic.

    Media erorii ptratice a fost calculat folosind urmtoarea formul:

    P*N

    )y-d(1

    2

    ijij1

    N

    i

    P

    jMSE ,

    undePreprezint numrul de elemente de prelucrare de ieire (n acest caz P=1),Nestenumrul de exemplare n setul de date, tij-ieirea reelei din unitatea de prelucrare jpentru exemplarul i, iar dij este ieirea dorita pentru exemplarul i din unitatea deprelucrarej.

    Intrrile reelei neuronale sunt: raportul molar, temperatura i timpul, iar ieireaeste randamentul reaciei de clorosulfonare. Topologia cu un singur strat ascuns cu 6neuroni obinut are o bun performan n faza de antrenare: MSE=0,000250 ir=0,9995 (corelaia dintre datele experimentale i ieirilereelei neuronale). Aceast reeade tip feedforward poate fi simbolizat ca perceptron multistrat, MLP (3:6:1)specificndu-se numrulde neuroni in straturile de intrare, ascunse i respectiv de ieire(figura 9).

  • 7/27/2019 Retele neuronale_ok.doc

    32/39

    33

    Figura 9. MLP (3:6:1) pentru modelarea randamentului reaciei de clorosulfonare

    EvoluiaMSEin timpul antrenrii seprezint n figura 10.

    Training MSE

    0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    1 6 11 16 21

    Training MSE

    Figura 10. Evoluia MSE in timpul antrenrii MLP (3:6:1)

    Modelarea neuronal direct permite estimarea randamentului de reacie ndiferite condiii (raportul molar dintre reactani, temperatura si durata de reacie), chiar i

    pentru situaiile n care datele experimentale nu sunt disponibile.Reelele neuronale pot fi folosite i pentru rezolvarea problemei inverse cnd se

    impune un randament final si se determina condiiile de lucru: temperatura, timpul dereacie si raportul molar optime. Dup cteva teste pentru modelare neuronala inversa, seobine topologia optima a reelei MLP (1:10:3) cu MSE= 0,0175 si r=0,979 n timpulantrenrii. EvoluiaMSE, n timpul antrenrii, pentru aceasta reea se reda in figura 11.

  • 7/27/2019 Retele neuronale_ok.doc

    33/39

    34

    0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    0,9

    0 100 200 300 400 500 600

    Training MSE

    Figura 11. Evoluia MSE in timpul antrenrii MLP (1:10:3)

    2.2.2. Rezultate

    Pentru aprecierea performantelorRNA proiectata anteriorMLP (3:6:1), trebuieanalizat raportul asupra sensibilitii ieirii raportata la fiecare dintre cele trei intrri:temperatura, timp, raportul molar intre reactani. Raportul coninetabelul 1 i figurile 12-14. Tabelul 1.

    Sensitivity randament (%)M 2,8059248temperatura (

    0C) 0,864151954timp (minute) 0,210672671

    Network Output(s) for Varied Input M

    0

    10

    20

    30

    40

    50

    60

    70

    4,70

    2

    4,95

    5

    5,20

    9

    5,463

    5,71

    6

    5,97

    0

    6,22

    4

    6,478

    6,73

    1

    6,98

    5

    7,23

    9

    7,493

    Varied Input M

    Output(s)

    randament (%)

    Figura 12. Randamentul funcie de raportul molar

  • 7/27/2019 Retele neuronale_ok.doc

    34/39

    35

    Network Output(s) for Varied Input temperatura ( 0C)

    52

    54

    56

    58

    60

    62

    64

    66

    68

    70

    72

    50,915

    51,700

    52,485

    53,271

    54,056

    54,841

    55,627

    56,412

    57,198

    57,983

    58,768

    59,554

    Varied Input temperatura ( 0C)

    Output(s)

    randament (%)

    Figura 14. Randamentul funcie de temperatur

    Network Output(s) for Varied Input timp (minute)

    0

    10

    20

    30

    40

    50

    60

    70

    80

    30,148

    32,821

    35,495

    38,168

    40,841

    43,515

    46,188

    48,862

    51,535

    54,208

    56,882

    59,555

    Varied Input timp (minute)

    Outpu

    t(s)

    randament (%)

    Figura 14. Randamentul funcie de durata reaciei de clorosulfonare

    Prediciile furnizate deRNA, n cadrul modelarii directe, se prezint in figura 15,comparativ cu datele experimentale.

  • 7/27/2019 Retele neuronale_ok.doc

    35/39

    36

    20

    30

    40

    50

    60

    70

    80

    0 5 10 15 20

    randament (%)

    randament (%) Output

    Figura 15. Comparaie intre randamentul msurat experimental si prediciileMLP

    (3:6 :1)

    Se poate observa corelaia dintre cele dou categorii de date: datele experimentalei prediciile reelei neuronale. Din acest motiv modelul neuronal MPL (3:6:1) poate fifolositpentru a face predicii n diferite condiii de reacie, nlocuind experimentele carenecesit consum de material i de timp. Tabelele 2-4 sunt exemple de obinere siinterpretare a rezultatelor simulate. Prediciile urmresc tendina general a variaiei parametrilor.

    Tabelul 2.

    M=7

    Randament

    Timp, min T=50 T=55 T=60 T=65 T=68 T=70

    20 29,8 37,4 41,7 35,1 30,7 28,125 35,7 43,4 47,5 38,8 33,1 29,930 42,4 48,9 53,0 43,5 37,1 33,435 48,4 53,3 58,2 50,1 43,7 39,540 52,7 56,9 63,3 58,0 52,4 48,345 56,0 60,4 68,0 65,3 61,3 58,050 59,1 63,9 71,5 70,6 68,3 66,055 62,4 67,1 74,0 73,9 72,6 71,360 65,5 69,6 75,5 75,8 75,1 74,4

    Tabelul 3.

    M=5

    randament

    Timp, min T=50 T=55 T=60

    20 36,74579 45,10034 41,6528725 41,22426 49,65321 46,7737330 44,86742 52,35748 50,12129

  • 7/27/2019 Retele neuronale_ok.doc

    36/39

    37

    35 47,07263 53,10436 52,0005740 47,66032 52,51307 53,4977245 47,18057 51,73668 55,4644750 46,74662 51,68715 57,9956255 47,20944 52,53531 60,73173

    60 48,68698 53,9839 63,30264

    Tabelul 4.

    M=3

    randament

    Timp, min T=50 T=55 T=60

    20 22,98325 26,36835 25,6283725 23,33488 26,98912 26,4635430 23,56447 27,07767 26,6660635 23,57558 26,52755 26,287140 23,29643 25,52713 25,75559

    45 22,80485 24,53239 25,514250 22,3316 23,88558 25,732355 22,06209 23,63188 26,3833760 22,03111 23,66952 27,38157

    Pentru o mai clara evideniere a dependentelor se redau in continuarereprezentrile grafice ale datelor tabelate, in figurile 16-18.

    Figura 16.Randamentul funcie de timp la M=7

    20,0

    30,0

    40,0

    50,0

    60,0

    70,0

    80,0

    20 25 30 35 40 45 50 55 60

    T=50

    T=55

    T=60

    T=65

    T=68

    T=70

  • 7/27/2019 Retele neuronale_ok.doc

    37/39

    38

    30

    35

    40

    45

    50

    55

    60

    65

    20 25 30 35 40 45 50 55 60

    T=50

    T=55

    T=60

    Figura 17.Randamentul funcie de timp la M=5

    O multitudine de informaii pot fi extrase din datele prezentate mai sus, obinuteca apredictii ale reelei MLP (3:6:1). Din figura 16 se observa ca randamentul creste cudurata de reacie. Dup 60 de minute insa, randamentul nu se mai modifica cnd sitemperatura este mai mare dect 600C. Pentru temperaturi mai mici, randamentul creste,pentru un timp mai mare de 60 min.

    Din figura 17 se remarca faptul ca randamentul creste cu timpul de reacie, darromane sub 65% pentru un timp pana la 60 min.

    20

    21

    22

    23

    24

    2526

    27

    28

    20 25 30 35 40 45 50 55 60

    T=50

    T=55

    T=60

    Figura 18.Randamentul funcie de timp la M=3

    Figura 18 evideniazaceeaicretere a randamentului cu timpul de reacie, darpana la 60 de minute, romane nc foarte mic si anume sub 30%.

    In final, prin simulrile efectuate cu ajutorul RNA, s-a constatat ca exista unoptim de 75,8% la M=7, T=600C si durata de reacie=60min. Creterea randamentuluieste insa foarte mica (0,3%), rmne de analizat daca, costurile aferente justifica acestrandament si susin acest optim.

  • 7/27/2019 Retele neuronale_ok.doc

    38/39

    39

    Reelele neuronale i dovedesc n principal utilitatea n rezolvarea unor problemedificile, cum sunt cele de estimare, identificare i predicie, sau de optimizarecomplex. Datorit independenei efecturii operaiilor din interiorul componentelorfa de celelalte componente din sistem, modelele conexioniste au un potenial mare deparalelism. Modul de memorare i procesare a datelor difereniaz reelele neuronaleartificiale de programele clasice, care urmeaz instruciunile ntr-o ordine secvenialredefinit, iar informaia este memorat n zone bine definite. Datorit capacitii lor dea rezolva probleme complexe pe baza unei mulimi consistente de exemple, sistemeleconexioniste au un spectru larg de aplicabilitate: de la sisteme de recunoatere de forme(caractere, semnturi, etc.) sau de semnale sonore, pn la sisteme pentru controlul unorprocese complexe, cum ar fi sistemele de auto-reglare sau piloii automai. n acesta lucrare au fost prezentate caracteristicile principale ale RNA,asemnrile i deosebirile dintre reelele neuronale i un sistem nervos biologic,insistndu-se asupra capacitii reelelorneuronale de a nva i nmagazina cunotine,pe baza procesului de nvare. Apoi au fost descrise diverse tipuri de neuroni,funciile de activare corespunztoare, precum i arhitecturale cele mai cunoscute dereele.

    Utilizarea software-ului NS n Excel este recomandat datorit faptului c Excelare cea mai mare rspndire, fiind parte a MS Office i datorit rezultatelor obinute larezolvarea problemei studiate. Pentru procesul studiat, s-a proiectat RNA prin testarea mai multor topologii ievaluarea performanelor Modelarea neuronal direct a artat c, pentru condiiile studiate, exist unoptim.

  • 7/27/2019 Retele neuronale_ok.doc

    39/39

    Diaconescu R, s.a , Direct and inverse neural modelling in chlorosulphonationprocess for ethylic ester of 2,4-dichlorophenoxyacetic acid,(in press)

    Ciocoiu Iulian,Reele neurale artificiale, ISBN 973-8173-16-7 Daniela Zaharie,CursReele neuronale Ben Krose and Patrick van der Smagt, An introduction to Neural Network,

    Amsterdam, 1996, University of Amsterdam Nikola K. Kasabov, Foundation of Neural Networks, Fuzzy systems, and

    Knowledge Engineering, Cambridge, The MIT Press, 1998 Bernard Widrow and Michael A. Lehr, 30 Years of adaptive neural networks:

    Perceptron, Madaline, and Backpropagation, Proceedings of the IEEE, vol. 78no.9,September 1990

    Dave Anderson and George McNeill, ARTIFICIAL NEURAL NETWORKSTECHNOLOGY, Kaman Sciences Corporation, 1992, New York

    Dumitrescu, D., Costin, H., Reele neuronale; teorie si aplicaii, Teora,Bucureti, 1996.

    Alin Brindusescu,Noiuni introductive

    http://ro.wikipedia.org/wiki/Special:BookSources/9738173167http://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://www.brindusescu.org/?q=node/2http://www.brindusescu.org/?q=node/2http://www.brindusescu.org/?q=node/2http://www.brindusescu.org/?q=node/2http://www.brindusescu.org/?q=node/2http://web.info.uvt.ro/~dzaharie/nec2006.htmlhttp://ro.wikipedia.org/wiki/Special:BookSources/9738173167