Generatieve A.I. blijft voort mij vooral leuk om mee te stoeien. Ik kan er korte verhaaltjes mee visualiseren, die met echt filmwerk veel meer tijd en geld kosten.
Maar de output is qua visuals en video's nog steeds wisselvallig: ik heb bijna altijd Photoshop nodig of een tolerantie voor visuele onzin.
Zeker m.b.t het genereren van video's is het resultaat nog geen concurrent van het echte werk:
mise-en-scene, lange shots, camerabewegingen die de afstand tot het onderwerp veranderen: het blijft lastig.
En dan heb ik het niet eens over colorshift en lage resoluties.
Voor Halloween heb ik dit experimentje gemaakt:
Ik moest bijna altijd de hoorns aanpassen in Photoshop. Iets laten verschijnen of verdwijnen is schier onmogelijk.
Bij een andere experiment bleek A.I.-video er enorm veel moeite mee te hebben om geen hoofd te laten groeien op een hoofdloos figuur a la de headless horseman uit Sleepy Hollow. (Erg grappig wel, maar niet bruikbaar.)
Midjourney v6 ziet er weer beter uit, maar iemand in een telescoop laten kijken, is nog steeds lastig, merkte ik vorige week nog.
De tools worden steeds beter, maar de generatieve A.I. tools voor video zijn nog steeds inadequaat voor mij als maker.
Wel zijn er al veel handige A.I. tools om beeld op te poetsen, los te knippen, etc. Scheelt een hoop tijd.
En voor hoaxers met een publiek dat iets graag wil geloven, is generatieve A.I. echt wel een bruikbare tool. Qua foto's is het voor een leek soms bijna niet meer van echt te onderscheiden.
De video's zijn nog krakkemikkig, maar deepfake daarintegen: steeds beter met minder moeite.
De enige video usecase die ik zelf had dit jaar betrof juist een video die eruit moest zien als gegenereerd door A.I.
Scripts die uit OpenVhat GPT komen, cind ik nog steeds ondermaats, btw.
En ideetjes bedenk ik graag zelf.