🚨 Google heeft net een zelfverbeterende video-generatie AI gebouwd Het heet VISTA, en het zou wel eens de grootste sprong in tekst-naar-video kunnen zijn sinds Sora. Hier is het wilde deel: het criticeert letterlijk zijn eigen video's visueel, auditief en contextueel en herschrijft vervolgens zijn eigen prompt om de volgende generatie beter te maken. Geen hertraining. Geen fine-tuning. Gewoon pure zelfreflectie tijdens de test. Het systeem splitst je prompt in scènes → genereert meerdere video's → beoordeelt ze in een toernooi → en gebruikt dan drie interne "critici" (visueel, audio, contextueel) om te achterhalen wat slecht was voordat het opnieuw probeert. Elke cyclus = slimmer, scherper, meer afgestemde video. De cijfers zijn gek: ⚡ 60% winpercentage versus state-of-the-art modellen zoals Veo 3 ⚡ 66,4% menselijke voorkeur ⚡ Echte verbeteringen in trouw, beweging en audio-afstemming zonder de modelgewichten aan te raken Zie het als een AI-regisseur die zijn eigen film bekijkt, aantekeningen in de marges schrijft en een betere versie opneemt bij de volgende opname. De toekomst van AI-creativiteit is niet het trainen van grotere modellen. Het is ze de mogelijkheid geven om van zichzelf te leren. VISTA heeft net video gemaakt die zichzelf leert hoe het moet verbeteren. Volledige paper: