Gute Gewichtinitialisierung ist eine effektive Maßnahme zur Reduzierung der Trainingskosten eines tiefen neuronalen Netzwerks (DNN). Die Wahl der Parameterinitialisierung ist jedoch herausfordernd und kann manuelle Feinabstimmung erfordern, was zeitaufwendig und anfällig für menschliche Fehler sein kann. Um solche Einschränkungen zu überwinden, wird in dieser Arbeit ein neuartiger Schritt unternommen, um einen Gewichtsgenerator zu entwickeln, der die neuronalen Gewichte zur Initialisierung synthetisiert.
Die Initialisierung der Gewichte eines neuronalen Netzwerks ist entscheidend für die Leistung und Effizienz des Modells. Eine falsche Initialisierung kann zu Problemen wie dem Verschwinden oder Explodieren von Gradienten führen, was das Training erschwert und die Konvergenz verlangsamt. Verschiedene Techniken zur Gewichtinitialisierung wie zufällige Initialisierung, Xavier-Initialisierung und He-Initialisierung wurden entwickelt, um diese Probleme zu mildern.
Das Problem der verschwindenden Gradienten tritt auf, wenn die Gradienten während der Rückpropagation durch das Netzwerk immer kleiner werden, was zu einer langsamen Konvergenz oder sogar einem völligen Stillstand des Lernprozesses führt. Umgekehrt führt das Problem der explodierenden Gradienten dazu, dass die Gradienten zu groß werden und das Modell instabil wird.
Ein neuartiger Ansatz zur Initialisierung der Gewichte besteht darin, einen Gewichtsgenerator zu verwenden, der die Gewichte synthetisiert. In dieser Arbeit wird das Bild-zu-Bild-Übersetzungsaufgabe mit generativen adversarialen Netzwerken (GANs) als Beispiel verwendet, da es einfach ist, Modellgewichte zu sammeln, die eine breite Palette abdecken. Ein Datensatz mit verschiedenen Bildbearbeitungskonzepten und den entsprechenden trainierten Gewichten wird gesammelt und zur Ausbildung des Gewichtsgenerators verwendet.
Um die unterschiedlichen Eigenschaften der Schichten und die große Anzahl vorherzusagender Gewichte zu berücksichtigen, werden die Gewichte in gleich große Blöcke unterteilt und jedem Block ein Index zugewiesen. Ein Diffusionsmodell wird mit einem solchen Datensatz trainiert, wobei sowohl die Textbedingungen des Konzepts als auch die Blockindizes verwendet werden.
Durch die Initialisierung des Bildübersetzungsmodells mit den vom Diffusionsmodell vorhergesagten entrauschten Gewichten benötigt das Training nur 43,3 Sekunden. Im Vergleich zum Training von Grund auf (z.B. Pix2pix) wird eine 15-fache Beschleunigung der Trainingszeit für ein neues Konzept erreicht, während die Bildgenerationsqualität sogar verbessert wird.
Traditionelle Methoden wie die zufällige Initialisierung oder die Xavier-Initialisierung haben ihre eigenen Vor- und Nachteile. Die vorgeschlagene Methode zeigt jedoch eine signifikante Verbesserung, indem sie die Trainingszeit reduziert und gleichzeitig die Modellgenauigkeit erhöht.
Die Wahl der Gewichtinitialisierung ist ein kritischer Faktor für den Erfolg von tiefen neuronalen Netzwerken. Der vorgestellte Ansatz zur Verwendung eines gewichtssynthetisierenden Generators zeigt vielversprechende Ergebnisse in Bezug auf die Reduzierung der Trainingszeit und die Verbesserung der Modellgenauigkeit. Weitere Untersuchungen und Tests auf verschiedenen Datensätzen werden notwendig sein, um das volle Potenzial dieser Methode auszuschöpfen.