Backpropagation
În învățarea automată, Format:Lang este o metodă de estimare a gradientului utilizată pentru a antrena modele de rețele neurale. Estimarea gradientului este utilizată de algoritmul de optimizare pentru a calcula actualizările parametrilor rețelei.
Este o aplicare eficientă la astfel de rețele a regulii derivării funcțiilor compuse enunțată de Leibniz (1673) pentru calculul derivatelor funcțiilor compuse.[1] Este cunoscut și ca modul invers al Format:Ill-wd sau Format:Ill-wd, datorită lui Format:Ill-wd (1970).[2][3][4][5][6][7] Termenul de „corectare a erorilor cu propagare inversă” a fost introdus în 1962 de Format:Ill-wd,[8][9] dar el nu știa cum să implementeze acest lucru, chiar dacă Format:Ill-wd avea un precursor continuu al lui Format:Lang[10] deja în 1960 în contextul Format:Ill-wd.[9]
Format:Lang calculează gradientul unei Format:Ill-wd în raport cu ponderile rețelei pentru un singur exemplu de intrare-ieșire și face acest lucru eficient, calculând gradientul strat cu strat, Format:Ill-wd înapoi de la ultimul strat pentru a evita calculele redundante ale termenilor intermediari din regula derivării funcțiilor compuse; aceasta se poate calcula prin Format:Ill-wd.[10][11]Format:Sfn În mod obișnuit, se utilizează Format:Ill-wd sau variante ale ei, cum ar fi Format:Ill-wd.[12]
În sens strict, termenul Format:Lang se referă doar la algoritmul de calcul al gradientului, nu la modul în care este utilizat gradientul; dar termenul este adesea folosit în mod liber pentru a se referi la întregul algoritm de învățare – inclusiv la modul în care este utilizat gradientul, cum ar fi descreșterea stochastică.[13] În 1986 Format:Ill-wd et al. au publicat o analiză experimentală a tehnicii.[14] Aceasta a contribuit la popularizarea tehnicii și a ajutat la inițierea unei perioade active de cercetare în domeniul Format:Ill-wd.
Generalități
Format:Lang calculează gradientul în Format:Ill-wd unei rețele neuronale Format:Lang, în raport cu o Format:Ill-wd. Se notează cu:
- : input (vectorul de caracteristici)
- : ieșirea așteptată
- Pentru clasificare, ieșirea va fi un vector de probabilități pe toate clasele (de ex., , iar ieșirea așteptată este o anumită clasă, codificată prin variabila one-hot (de ex., ).
- : Format:Ill-wd
- Pentru clasificare, aceasta este de obicei entropia încrucișată (XC, Format:Ill-wd), în timp ce pentru regresie este de obicei costul erorii la pătrat
- (SEL).
- : numărul de straturi
- : ponderile legăturilor între straturile și , unde este ponderea între nodul din stratul și nodul din stratul Format:Efn
- : Format:Ill-wd de pe stratul
- Pentru clasificare, ultimul strat este de regulă Format:Ill-wd pentru clasificare binară, și Format:Ill-wd (softargmax) pentru clasificare cu mai multe clase, în timp ce pentru stratele ascunse, aceasta este tradițiomal o Format:Ill-wd (funcția logistică sau altele) pe fiecare nod (coordonată), dar astăzi gama este mai variată, fiind comună și funcția Format:Ill-wd (Format:Ill-wd, Format:Ill-wd).
- : activarea nodului din stratul .
În calculul lui Format:Lang, se folosesc alte cantități intermediare introducându-le după cum este necesar mai jos. Termenii de bias nu sunt tratați în mod special, deoarece corespund unei ponderi cu o intrare fixă de 1. Pentru Format:Lang, funcția de cost și funcțiile de activare specifice nu contează atâta timp cât ele și derivatele lor pot fi evaluate eficient. Printre funcțiile tradiționale de activare se numără sigmoidele, tanh și ReLU. Au mai fost propuse și swish,[15] mish,[16] și alte funcții de activare.
Rețeaua de ansamblu este o combinație de Format:Ill-wd și înmulțiri de matrici:
Ca mulțime de antrenare se ia o mulțime de perechi intrare-ieșire, . Pentru fiecare pereche intrare-ieșire din mulțimea de antrenare, costul modelului pe acea pereche este costul diferenței dintre rezultatul prezis și rezultatul așteptat :
În timpul evaluării modelului, ponderile sunt fixe, în timp ce intrările variază (și ieșirea așteptată poate fi necunoscută), iar rețeaua se termină cu stratul de ieșire (nu include funcția de cost). În timpul antrenării modelului, perechea intrare-ieșire este fixă în timp ce ponderile variază, iar rețeaua se termină cu funcția de cost.
Format:Lang calculează gradientul pentru o pereche de intrare-ieșire fixă , unde ponderile pot varia. Fiecare componentă individuală a gradientului, poate fi calculată prin regula derivării funcțiilor compuse; dar a face acest lucru separat pentru fiecare pondere este ineficient. Format:Lang calculează eficient gradientul, evitând calculele duplicate și nu calculează valori intermediare inutile, calculând gradientul fiecărui stratFormat:Mdash în special gradientul intrării ponderate a fiecărui strat, notat cu – din spate către față.
Cu alte cuvinte, punctul cheie este că, din moment ce singurul mod în care o pondere din afectează costul este prin efectul său asupra stratului următor și face acest lucru liniar, rezultă că sunt singurele date de care este nevoie pentru a calcula gradienții ponderilor stratului , iar apoi stratul anterior poate fi calculat cu și repetat recursiv. Aceasta evită ineficiența în două moduri. În primul rând, evită duplicarea, deoarece atunci când se calculează gradientul la stratul – nu mai este nevoie să se recalculeze toate derivatele pe straturile ulterioare de fiecare dată. În al doilea rând, evită calculele intermediare inutile, deoarece în fiecare etapă calculează direct gradientul ponderilor în raport cu rezultatul final (costul), și nu calculează inutil derivatele valorilor straturilor ascunse în raport cu modificările ponderilor .
Format:Lang poate fi exprimat pentru rețelele simple Format:Lang în termeni de înmulțire de matrici sau, mai general, în termeni de graf adjunct.
Înmulțire de matrici
Pentru cazul de bază al unei rețele Format:Lang, în care nodurile din fiecare strat sunt conectate numai la nodurile din stratul imediat următor (fără a sări peste niciun strat) și există o funcție de cost care calculează costul scalar pentru ieșirea finală, Format:Lang poate fi înțeles pur și simplu prin înmulțiri de matrici.Format:Efn În esență, Format:Lang evaluează expresia derivatei funcției de cost ca un produs al derivatelor între fiecare strat de la dreapta la stânga – „înapoi” – iar gradientul ponderilor dintre fiecare strat este o simplă modificare a produsele parțiale („eroarea propagată înapoi”).
Dacă se dă o pereche intrare-ieșire , costul este:
Pentru a-l calcula, se începe cu intrarea și se merge înainte; se notează intrarea ponderată a fiecărui strat ascuns cu și rezultatul stratului ascuns ca activarea . Pentru Format:Lang, activarea precum și derivatele (evaluat la ) trebuie să fie memorate pentru utilizare în timpul trecerii înapoi.
Derivata costului în termeni de intrări este dată de regula derivării funcțiilor compuse; fiecare termen este o Format:Ill-wd, evaluată la valoarea rețelei (în fiecare nod) pe intrarea :
Unde este o matrice diagonală.
Acești termeni sunt: derivata funcției de cost;Format:Efn derivatele funcțiilor de activare;Format:Efn și matricile ponderilor:Format:Efn
Gradientul este transpusa derivatei ieșirii în termeni de intrare, deci matricile sunt transpuse și ordinea înmulțirii se inversează, dar intrările sunt aceleași:
Format:Lang constă apoi, în esență, în evaluarea acestei expresii de la dreapta la stânga (echivalent, înmulțirea expresiei anterioare pentru derivată de la stânga la dreapta), calculând gradientul la fiecare strat pe parcurs; se mai adaugă un pas, deoarece gradientul ponderilor nu este doar o subexpresie: există o înmulțire suplimentară.
Introducerea mărimii auxiliare pentru produsele parțiale (înmulțirea de la dreapta la stânga), interpretată ca „eroare la nivelul ” și definită ca gradientul valorilor de intrare la nivelul :
Cum este un vector, de lungime egală cu numărul de noduri din nivelul , fiecare componentă este interpretată drept „costul atribuibil (valorii) nodului respectiv”.
Gradientul ponderilor din stratul este atunci:
Factorul este pentru că greutățile între nivelele și afectează proporțional cu intrările (activările): intrările sunt fixe, ponderile variază.
poate fi ușor calculat recursiv, mergând de la dreapta la stânga, după cum urmează:
Gradienții ponderilor pot fi astfel calculați folosind câteva înmulțiri de matrici pentru fiecare nivel; aceasta este Format:Lang.
Se compară cu calculul naiv înainte (folosind pentru ilustrare):
În Format:Lang există două diferențe esențiale:
- Calculul lui în termeni de evită evidenta dublare a înmulțirii straturilor și mai departe.
- Înmulțirea începând de la – propagarea erorii înapoi – înseamnă că la fiecare pas pur și simplu se înmulțește un vector () cu matricile de ponderi și derivatele activărilor . În schimb, înmulțirea înainte, pornind de la modificările de la un strat anterior, înseamnă că la fiecare înmulțire se înmulțește o matrice cu altă matrice. Aceasta este mult mai costisitoare și corespunde urmăririi tuturor căilor posibile ale unei modificări dintr-un singur strat până în stratul (pentru înmulțirea lui cu , cu înmulțiri suplimentare pentru derivatele activărilor), care calculează în mod inutil cantități intermediare ale modului în care modificările de pondere afectează valorile nodurilor ascunse.
Graful adjunct
Pentru grafuri mai generale și alte variații avansate, Format:Lang poate fi înțeles în termeni de Format:Ill-wd, unde Format:Lang este un caz particular al acumulării inverse (sau „modului invers”).
Motivația
Obiectivul oricărui algoritm de Format:Ill-wd este de a găsi o funcție care mapează cel mai bine un set de intrări la ieșirea lor corectă. Motivația pentru Format:Lang este de a antrena o rețea neurală cu mai multe straturi, astfel încât să poată învăța reprezentările interne adecvate pentru a-i permite să învețe orice mapare arbitrară a intrării la ieșire.[17]
Învățarea ca problemă de optimizare
Pentru a înțelege calculul matematic al algoritmului de Format:Lang, este nevoie mai întâi de dezvoltarea unei intuiții despre relația dintre produsul real al unui neuron și rezultatul corect pentru un anumit exemplu de antrenament. Fie o rețea neurală simplă cu două unități de intrare, o unitate de ieșire și fără unități ascunse și în care fiecare neuron utilizează o ieșire liniară (spre deosebire de majoritatea lucrărilor pe rețelele neurale, în care maparea de la intrări la ieșiri este neliniară)Format:Efn care este suma ponderată a intrărilor sale.

Inițial, înainte de antrenare, ponderile pot fi stabilite aleatoriu. Apoi neuronul învață din Format:Ill-wd, care în acest caz constau dintr-o mulțime de Format:Ill-wd unde și sunt intrările rețelei și Format:Mvar este ieșirea corectă (ieșirea pe care rețeaua ar trebui să o producă când primește acele intrări, la momentul antrenării). Când primește la intrare și , rețeaua inițială va calcula o ieșire Format:Mvar care probabil diferă de Format:Mvar (dat fiind că ponderile sunt aleatorii). O funcție de cost este utilizată pentru măsurarea discrepanței dintre ieșirea așteptată Format:Mvar și ieșirea calculată Format:Mvar. Pentru problemele de analiză de regresie, eroarea pătrată poate fi folosită ca funcție de cost, dar pentru Format:Ill-wd se poate folosi Format:Ill-wd.
De exemplu, fie o problemă de regresie folosind eroarea pătrată ca funcție de cost:
unde Format:Mvar este discrepanța sau eroarea.
Fie rețeaua pe un singur caz de antrenare: . Astfel, intrările și sunt 1 și, respectiv, 1, iar ieșirea corectă Format:Mvar este 0. Acum, dacă este reprezentată relația dintre ieșirea rețelei Format:Mvar pe axa orizontală și eroarea Format:Mvar pe axa verticală, rezultatul este o parabolă. Minimul parabolei corespunde ieșirii Format:Mvar care minimizează eroarea Format:Mvar. Pentru un singur caz de antrenament, minimul atinge și axa orizontală, ceea ce înseamnă că eroarea va fi zero și rețeaua poate produce o ieșire Format:Mvar care se potrivește exact cu ieșirea țintă Format:Mvar. Prin urmare, problema mapării intrărilor la ieșiri poate fi redusă la o Format:Ill-wd a găsirii unei funcții care va produce eroarea minimă.

Ieșirea unui neuron depinde însă de suma ponderată a tuturor intrărilor sale:
Unde și sunt ponderile conexiunii de la unitățile de intrare la unitatea de ieșire. Prin urmare, eroarea depinde și de ponderile de intrare ale neuronului, care este în cele din urmă ceea ce trebuie schimbat în rețea pentru a permite învățarea.
În acest exemplu, la injectarea datelor de antrenare , funcția de cost devine
Atunci, funcția de cost ia forma unui cilindru parabolic cu baza îndreptată de-a lungul dreptei . Deoarece toate mulțimile de ponderi care satisfac minimizează funcția de cost, în acest caz sunt necesare constrângeri suplimentare pentru a converge către o soluție unică. Constrângerile suplimentare ar putea fi generate fie prin stabilirea unor condiții specifice pentru ponderi, fie prin injectarea de date suplimentare de antrenare.
Un algoritm utilizat în mod obișnuit pentru a găsi mulțimea de ponderi care minimizează eroarea este Format:Ill-wd. Prin Format:Lang, se calculează cea mai abruptă direcție de descreștere a funcției de cost față de ponderile sinaptice actuale. Ponderile pot fi apoi modificate pe cea mai abruptă direcție de descreștere, iar eroarea este redusă la minimum într-un mod eficient.
Derivare
cu
unde
- este costul pentru ieșirea și valoarea așteptată ,
- este rezultatul așteptat pentru un eșantion de antrenare și
- este ieșirea reală a neuronului de ieșire.
Pentru fiecare neuron , ieșirea sa este definită ca
unde Format:Ill-wd este Format:Ill-wd și diferențiabilă în regiunea de activare (ReLU nu este diferențiabilă într-un punct). O funcție de activare folosită istoric este Format:Ill-wd:
care are o derivată convenabilă:
Prin urmare, derivata în raport cu poate fi calculată dacă se cunosc toate derivatele în raport cu ieșirile ale stratului următor – cele mai apropiate de neuronul de ieșire. Dacă vreunul dintre neuroni din mulțimea nu este conectat la neuronul , atunci ar fi independent de , iar derivata parțială corespunzătoare sub însumare s-ar reduce la 0.
Găsirea derivatei erorii

Calculul derivatei parțiale a erorii în raport cu o pondere se face folosind regula derivării funcțiilor compuse de două ori: Format:NumBlk
În ultimul factor din partea dreaptă a celor de mai sus, un singur termen din sumă, , depinde de , astfel încât Format:NumBlk
Dacă neuronul se află în primul strat după stratul de intrare, este doar .
Intrarea a unui neuron este suma ponderată a ieșirilor a neuronilor anteriori. Dacă neuronul se află în primul strat după stratul de intrare, atunci ale stratului de intrare sunt pur și simplu intrările la rețea. Numărul de unități de intrare către neuron este . Variabila denotă ponderea dintre neuronul din stratului anterior și neuronul din stratului curent. care pentru Format:Ill-wd
Acesta este motivul pentru care Format:Lang necesită ca funcția de activare să fie diferențiabilă. (Cu toate acestea, funcția de activare Format:Ill-wd, care este nediferențiabilă în 0, a devenit destul de populară, de exemplu în Format:Ill-wd)
Primul factor este simplu de evaluat dacă neuronul se află în stratul de ieșire, pentru că atunci și Dacă jumătate din pătratul erorii este folosit ca funcție de cost, o putem rescrie ca
Dacă însă se află într-un strat interior arbitrar al rețelei, metoda de găsire a derivatei în raport cu este mai puțin evidentă.
Considerând o funcție, intrările fiind toți neuronii care primesc intrare de la neuronul ,
și luând Format:Ill-wd în raport cu , se obține o expresie recursivă pentru derivată:
Înlocuind Format:EquationNote, Format:EquationNote Format:EquationNote și Format:EquationNote în Format:EquationNote se obține:
Metoda descreșterii de gradient implică calculul derivatei funcției de cost în raport cu ponderile rețelei. Aceasta se face în mod normal utilizând Format:Lang. Presupunând un neuron de ieșire,Format:Efn funcția de eroare pătrată este
dacă este funcția logistică, iar eroarea este pătratul erorii:
Pentru a actualiza ponderea folosind descreșterea gradientului, trebuie aleasă o rată de învățare, . Modificarea ponderii trebuie să reflecte impactul asupra lui al unei creșteri sau scăderi a lui . Dacă , atunci o creștere a lui va face să crească ; invers, dacă , o creștere a lui va face să scadă . Noul se adaugă la ponderea veche, iar produsul dintre rata de învățare și gradient, înmulțit cu garantează că se schimbă într-un mod care scade întotdeauna . Cu alte cuvinte, în ecuația imediat de mai jos, îl schimbă întotdeauna pe în așa fel încât să se reducă:
Descreșterea gradientului de ordinul doi
Folosind o matrice Hessiană de derivate de ordinul doi ale funcției de eroare, Format:Ill-wd converge adesea mai rapid decât descreșterea gradientului de ordinul întâi, mai ales când topologia funcției de eroare este complicată.[18][19] De asemenea, el poate găsi soluții cu un număr mai mic de noduri, cu care alte metode ar putea să nu conveargă.[19] Hessiana poate fi aproximată prin Format:Ill-wd.[20]
Funcția de cost
Funcția de cost este o funcție care mapează valorile uneia sau mai multor variabile pe un număr real reprezentând intuitiv un „cost” asociat cu acele valori. Pentru Format:Lang, funcția de cost calculează diferența dintre ieșirea rețelei și rezultatul așteptat, după ce un exemplu de antrenare s-a propagat prin rețea.
Ipoteze
Expresia matematică a funcției de cost trebuie să îndeplinească două condiții pentru ca ea să poată fi utilizată în Format:Lang. Prima este că poate fi scrisă ca o medie a funcțiilor de eroare , pentru exemple individuale de antrenare, . Motivul pentru această ipoteză este că algoritmul Format:Lang calculează gradientul funcției de eroare pentru un singur exemplu de antrenare, care trebuie generalizat la funcția de eroare generală. A doua presupunere este că poate fi scrisă în funcție de ieșirile din rețeaua neurală.
Exemplu de funcție de cost
Fie vectori în .
Se alege o funcție de eroare care măsoară diferența dintre două ieșiri. Alegerea standard este pătratul distanței euclidiene dintre vectori și :
Limitări

- Descreșterea gradientului din Format:Lang nu garantează că va găsi minimul global al funcției de eroare, ci doar un minim local; de asemenea, are probleme la traversarea Format:Ill-wd din peisajul funcțiilor de eroare. Această problemă, cauzată de Format:Ill-wd funcțiilor de eroare din rețelele neurale, a fost mult timp considerată a fi un dezavantaj major, dar Format:Ill-wd et al. susțin că în multe probleme practice, nu este.[21]
- Învățarea prin Format:Lang nu necesită normalizarea vectorilor de intrare; totuși, normalizarea ar putea îmbunătăți performanța.[22]
- Format:Lang necesită ca derivatele funcțiilor de activare să fie cunoscute în momentul proiectării rețelei.
Istorie
Precursori
Format:Lang a fost derivată în mod repetat, deoarece este în esență o aplicare eficientă a regulii derivării funcțiilor compuse (enunțată în premieră de Gottfried Wilhelm Leibniz în 1676[1][23]) asupra rețelelor neurale.
Terminologia „corectare a erorilor prin Format:Lang” a fost introdusă în 1962 de Format:Ill-wd, dar el nu știa cum să implementeze acest lucru.[24] În orice caz, el a studiat doar neuronii ale căror ieșiri erau niveluri discrete, care aveau doar derivate zero, făcând Format:Lang imposibil.
Precursorii lui Format:Lang au apărut în Format:Ill-wd încă din anii 1950. Format:Ill-wd Format:Lang creditează lucrările din anii 1950 a lui Format:Ill-wd și alții, în teoria controlului optim, în special Format:Ill-wd, ca fiind o versiune în timp continuu a lui Format:Lang.[25] Format:Ill-wd[26] creditează Format:Ill-wd (1951) și Applied Optimal Control (1969) a lui Format:Ill-wd și Format:Ill-wd ca ceva ce anticipa Format:Lang. Alți precursori au fost Format:Ill-wd 1960, [10] și Format:Ill-wd (1961).[11] În 1962, Format:Ill-wd a publicat un calcul mai simplu bazat doar pe regula derivării funcțiilor compuse.[27][28][29] În 1973, el adapta parametrii controllerelor proporțional cu gradienții de eroare.[30] Spre deosebire de Format:Lang modern, acești precursori foloseau calcule standard cu matricea jacobiană de la o etapă la cea anterioară, fără a aborda legăturile directe în mai multe etape și nici potențialele câștiguri suplimentare de eficiență datorate dispersității rețelei.
Algoritmul de învățare Format:Ill-wd (1960) a fost o descreștere de gradient cu funcția de cost pătratul erorii pentru un singur strat. Primul Format:Ill-wd (MLP) cu mai mult de un strat antrenat prin Format:Ill-wd[12] a fost publicat în 1967 de Format:Ill-wd.[31][9] MLP avea 5 straturi, din care 2 straturi puteau fi învățate, și a învățat să clasifice modele care nu sunt separabile liniar.[9]
Format:Lang modern
Format:Lang modern a fost publicat pentru prima dată de Format:Ill-wd ca „mod invers de Format:Ill-wd” (1970)[2] pentru rețele discrete conectate de funcții diferențiabile imbricate.[3][4]
În 1982, Format:Ill-wd a aplicat Format:Lang la MLP-uri în modul care a devenit standard.[32][33] Werbos descria într-un interviu cum a dezvoltat Format:Lang. În 1971, în timpul lucrării sale de doctorat, el a dezvoltat Format:Lang pentru a matematiciza „fluxul de energie psihică” al lui Freud. S-a confruntat cu dificultăți repetate în publicarea lucrării, reușind abia în 1981.[34]
Prin preajma lui 1982,[34]Format:Rp Format:Ill-wd a dezvoltat independent[35]Format:Rp Format:Lang și a predat algoritmul celor din cercul său de cercetare. El nu cita lucrări anterioare, deoarece nu le cunoștea. A publicat algoritmul mai întâi într-o lucrare din 1985, apoi, într-un articol din Nature din 1986, a descris o analiză experimentală a tehnicii.[14] Aceste lucrări au devenit foarte citate, au contribuit la popularizarea lui Format:Lang și au coincis cu renașterea interesului de cercetare în rețelele neurale în anii 1980.[17][36][37]
În 1985, metoda a fost descrisă și de David Parker.[38] Format:Ill-wd a propus o formă alternativă de Format:Lang pentru rețelele neurale în teza sa de doctorat din 1987.[39]
Descreșterea gradientului a avut nevoie de o perioadă considerabilă de timp pentru a ajunge la acceptare. Unele dintre obiecțiile inițiale au fost: că nu existau garanții că descreșterea gradientului poate atinge un minim global, ci doar un minim local; că neuronii erau „cunoscuți” de fiziologi ca producând semnale discrete (0/1), nu continue, iar cu semnale discrete, nu există nici un gradient de luat. Vezi interviul cu Geoffrey Hinton.[34]
Primele succese
La acceptare au contribuit mai multe aplicații de antrenare a rețelelor neurale prin Format:Lang, uneori atingând popularitate în afara cercurilor de cercetare.
În 1987, Format:Ill-wd a învățat să convertească textul în limba engleză în pronunție. Sejnowski a încercat să-l antreneze atât cu Format:Lang, cât și cu mașina Boltzmann, dar a constatat că Format:Lang funcționează mult mai rapid, așa că l-a folosit pentru varianta finală de NETtalk.[34]Format:Rp Programul NETtalk a avut un mare succes și a apărut în Format:Ill-wd.[40]
În 1989, Dean A. Pomerleau a publicat ALVINN, o rețea neurală antrenată să Format:Ill-wd folosind Format:Lang.[41]
Format:Ill-wd, publicat în 1989, recunoștea codurile poștale scrise de mână.
În 1992, Format:Ill-wd a atins nivelul unui jucător uman de table. Era un agent de învățare cu întârire, cu o rețea neurală cu două straturi, antrenată prin Format:Lang.[42]
În 1993, Eric Wan a câștigat un concurs internațional de recunoaștere a șabloanelor cu Format:Lang.[6][43]
După Format:Lang
În anii 2000 a pierdut din popularitate, dar a revenit în anii 2010, beneficiind de sisteme de calcul ieftine și puternice bazate pe GPU-uri. A fost mai ales cazul în domeniul recunoașterii vocale, Format:Ill-wd, prelucrării limbajului natural și cercetării învățării structurii limbajului (în care a fost folosită pentru a explica o varietate de fenomene legate de învățarea primei[44] și celei de-a doua limbi[45]).[46]
Format:Lang a fost sugerat pentru a explica componentele Format:Ill-wd ale creierului uman, cum ar fi Format:Ill-wd și Format:Ill-wd.[47]
În 2023, un algoritm de Format:Lang a fost implementat pe un procesor fotonic de către o echipă de la Universitatea Stanford.[48]
Note de completare
Note bibliografice
- ↑ 1,0 1,1 Format:Citat carte
- ↑ 2,0 2,1 Format:Cite thesis
- ↑ 3,0 3,1 Format:Citat revistă
- ↑ 4,0 4,1 Format:Citat carte
- ↑ Format:Citat carte
- ↑ 6,0 6,1 Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat carte
- ↑ 9,0 9,1 9,2 9,3 Format:Cite arXiv
- ↑ 10,0 10,1 10,2 Format:Citat revistă
- ↑ 11,0 11,1 Format:Citat carte
- ↑ 12,0 12,1 Format:Citat revistă
- ↑ Format:Harvnb, "The term back-propagation is often misunderstood as meaning the whole learning algorithm for multilayer neural networks. Backpropagation refers only to the method for computing the gradient, while other algorithms, such as stochastic gradient descent, is used to perform learning using this gradient."
- ↑ 14,0 14,1 Format:Citat revistă
- ↑ Format:Cite arXiv
- ↑ Format:Cite arXiv
- ↑ 17,0 17,1 Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ 19,0 19,1 Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat carte
- ↑ Format:Citat revistă
- ↑ Format:Citat carte
- ↑ LeCun, Yann, et al. "A theoretical framework for back-propagation." Proceedings of the 1988 connectionist models summer school. Vol. 1. 1988.
- ↑ Format:Citat carte
- ↑ Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat web
- ↑ Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat carte
- ↑ Format:Citat carte
- ↑ 34,0 34,1 34,2 34,3 Format:Citat carte
- ↑ Olazaran Rodriguez, Jose Miguel. A historical sociology of neural network research. PhD Dissertation. University of Edinburgh, 1991.
- ↑ Format:Citat carte
- ↑ Format:Citat carte
- ↑ Format:Citat carte
- ↑ Format:Cite thesis
- ↑ Format:Citat carte
- ↑ Format:Citat revistă
- ↑ Format:Citat carte
- ↑ Format:Citat carte
- ↑ Format:Citat revistă
- ↑ Format:Citat revistă
- ↑ Format:Citat web
- ↑ Format:Citat revistă
- ↑ Format:Citat web