Muchas veces el modelo colapsa cuando el generador aprende a engañar al discriminador generando siempre las mismas imágenes para que el discriminador las tome como válidas.
Probé con varios y me gustó mucho el resultado, en mi caso no ví que hubiese efecto de colapso si no que me saltaron una...