Die Druckversion wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisiere deine Browser-Lesezeichen und verwende stattdessen die Standard-Druckfunktion des Browsers.
Ein flussbasiertes generatives Modell ist ein generatives Modell, welches die Wahrscheinlichkeitsdichte der zugrundeliegenden Trainingsdaten schätzt, indem der normalisierte Fluss (normalizing flow)[1] berechnet wird. Der normalizing flow wird aus den Rechenregeln zum Wechseln der Variablen bei Integration (siehe Transformationssatz) hergeleitet, wobei eine einfache Verteilung in die komplizierte Zielverteilung transformiert wird.
Hintergrund
Normalisierten Flüssen liegt die folgende Tatsache zugrunde: Betrachten wir die bijektive Abbildung, sodass , dann gilt laut Transformationssatz
wobei der Betrag der Funktionaldeterminante ist und durch neuronale Netze parametrisiert wird.
Methode
Schema, welches den normalisierten Fluss darstellt
Ziel des Trainings ist es die Kullback-Leibler-Divergenz zwischen der geschätzten Wahrscheinlichkeitsdichte und der wahren, die Stichproben generierende, Wahrscheinlichkeitsdichte zu minimieren:
Das früheste Beispiel einer Abbildung ist der planare Fluss[1]. Bei gegebener Aktivierungsfunktion, und Parametern mit entsprechender Dimension, ist und die inverse (ohne allgemeingültige geschlossene Form).