Dzisiaj podejście do speed…

Dzisiaj podejście do speed fejka, czyli możliwie jak najszybciej ukończonego procesu trainingu (który w skrajnych przypadkach może trwać nawet ponad 100 godzin). Poniżej owoc króciutkiego trainingu na bardzo niskim batchu, ale z użyciem wysokiej jakości ostrego źródła, i tej samej rozdzielczości lecz raczej rozmytego obrazu. Wyszło nawet nieźle biorąc pod uwagę, że sam proces uczenia się twarzy uczył się ok. 75% mniej niż normalnie. Mniej więcej tak wyglądałaby Margeary gdyby grał ją Jaś Fasola:

https://www.wykop.pl/link/5574639/gdyby-margeary-z-got-grana-byla-przez-jasia-fasole-wykopowy-projekt-deep-fake/

#deepwykop – już 458 osób obserwuje Wykopowy Projekt Rozkminiania Technologii Deep Fake

W jaki sposób to osiągnąłem? Pierwsza sprawa to zbicie w dół pingu poprzez użycie mniejszego batcha (w tym przypadku jest to batch 2). Wiele osób zastanawia się teraz pewnie dlaczego mniejszy batch skoro ma być szybciej? W zamian za to wykorzystamy większą rozdzielczość trainingu (256 res), materiał docelowy w 1080p i archtekturę DFHD. Jaś Fasola posiada bardzo ostre rysy, natomiast plik dst jest bardzo mętny, wręcz rozmyty. To dało mi tę przewagę, że loss values bardzo szybko spadają, a src szybko zostaje dopasowany do dst. Efekt jest nawet niezły, choć nie polecam go używać. Natomiast metoda może się przydać przy korzystaniu z dst w słabej jakości, gdzie materiał jest w bardzo słabej jakości. Wystarczy je wtedy podbić do 1080 i delikatnie rozmyć w programie do edycji filmów.

#machinelearning #ciekawostki #technologia #faceswap #graotron