- Mi a Minibatch diszkrimináció??
- Hogyan előzheti meg a mód GAN -ok összeomlását?
- Hogyan javíthatom GAN képzésemet?
- Miért instabil a GAN??
Mi a Minibatch diszkrimináció??
A Minibatch Diszkrimináció egy diszkriminatív technika a generatív ellenséges hálózatok számára, ahol teljes mintacsoportok között teszünk különbséget, nem pedig egyedi minták között. Ennek célja, hogy elkerülje a generátor összeomlását.
Hogyan előzheti meg a mód GAN -ok összeomlását?
A gondosan behangolt tanulási sebesség enyhíthet néhány komoly GAN -problémát, például a mód összeomlását. Konkrétan csökkentse a tanulási arányt, és ismételje meg az edzést, ha a mód összeomlik. Kísérletezhetünk a generátor és a diszkriminátor különböző tanulási arányaival is.
Hogyan javíthatom GAN képzésemet?
További tippek és trükkök
- Funkcióegyezés. GAN kidolgozása félig felügyelt tanulás segítségével.
- Minibatch diszkrimináció. Fejlesszen funkciókat több minta között egy minibatchban.
- Történelmi átlagolás. Frissítse a veszteségfüggvényt az előzmények beépítéséhez.
- Egyoldalú címke simítás. ...
- Virtuális kötegelt normalizálás.
Miért instabil a GAN??
Az a tény, hogy a GAN-ok két hálózatból állnak, és mindegyiknek van veszteségfunkciója, azt eredményezi, hogy a GAN-ok eredendően instabilak- egy kicsit mélyebbre merülve a problémában, a Generátor (G) elvesztése a GAN instabilitásához vezethet , ami a gradiens eltűnési probléma oka lehet, amikor a ...