Regularitzadors permeten aplicar penalitzacions als paràmetres de la capa o a l'activitat de la capa durant l'optimització. Aquestes penalitzacions es sumen a la funció de pèrdua que optimitza la xarxa. Les penalitzacions de regularització s'apliquen per capa.
Què és el regularitzador d'activitats?
El regularitzador d'activitat funciona en funció de la sortida de la xarxa, i s'utilitza principalment per regularitzar unitats ocultes, mentre que weight_regularizer, com diu el nom, treballa amb els pesos (p. ex., fent-los degradar).
Quan hauria d'utilitzar el regularitzador d'activitats?
Si voleu que la funció de sortida passi per (o tingui una intercepció més propera) a l'origen, podeu utilitzar el regularitzador de biaix. Si voleu que la sortida sigui més petita (o més propera a 0), podeu utilitzar el regularitzador d'activitats.
Com faig servir Keras regularizer?
Per afegir un regularitzador a una capa, només heu de per passar la tècnica de regularització preferida a l'argument de paraula clau de la capa 'kernel_regularizer'. Els mètodes d'implementació de regularització de Keras poden proporcionar un paràmetre que representi el valor de l'hiperparàmetre de regularització.
Què és el nucli i el biaix?
Classe densa
Dense implementa l'operació: sortida=activació (punt (entrada, nucli) + polarització) on l'activació és la funció d'activació per elements que es passa com a argument d'activació, el nucli és una matriu de pesos creada per la capa, ibias és un vector de biaix creat per la capa (només aplicable si use_bias és True).