En resum, no podeu fer una propagació posterior si no teniu una funció objectiu. No podeu tenir una funció objectiu si no teniu una mesura entre un valor previst i un valor etiquetat (dades reals o d'entrenament). Per tant, per aconseguir un "aprenentatge no supervisat", és possible que hàgiu abandonat la capacitat de calcular un gradient.
Quines són les limitacions de la propagació enrere?
Inconvenients de l'algoritme de propagació posterior:
Depèn de l'entrada per resoldre un problema específic. Sensible a dades complexes/sorolloses. Necessita els derivats de les funcions d'activació per al temps de disseny de la xarxa.
Com es corregeix la propagació enrere?
Procés de retropropagació a la xarxa neuronal profunda
- Valors d'entrada. X1=0,05. …
- Pes inicial. W1=0,15 w5=0,40. …
- Valors de biaix. b1=0,35 b2=0,60.
- Valors objectiu. T1=0,01. …
- Passa endavant. Per trobar el valor de H1 primer multipliquem el valor d'entrada dels pesos com a. …
- Passa enrere a la capa de sortida. …
- Passa enrere a la capa oculta.
La retropropagació és eficient?
La retropropagació és eficient, la qual cosa fa que sigui factible entrenar xarxes multicapa que contenen moltes neurones alhora que s'actualitzen els pesos per minimitzar la pèrdua.
Quin problema soluciona la retropropagació quan es treballa amb xarxes neuronals?
En ajustar una xarxa neuronal, la retropropagació calcula el gradient dela funció de pèrdua respecte als pesos de la xarxa per a un sol exemple d'entrada-sortida, i ho fa de manera eficient, a diferència d'un càlcul directe ingenu del gradient respecte a cada pes individualment.