È divertente come spingano per contenuti grezzi, imperfetti, "veramente te stesso" (ora il racconto consensuale dell'industria) proprio quando le piattaforme hanno bisogno di filmati e dati ad alta varianza per addestrare l'AI. Dove la discussione inquadra questo cambiamento come un adattamento culturale, vale anche la pena esaminare gli incentivi delle piattaforme che lo accelerano. Se davvero si preoccupassero di ciò che gli utenti vogliono, avrebbero mantenuto una miscela più sana di foto nel feed, che gli utenti dicono costantemente di sentire la mancanza. Ma con quasi ogni immagine statica su Internet già estratta per addestrare i modelli, le immagini sono effettivamente "risolte". Un'immagine statica insegna all'AI come appare un cane, ma non insegna come suona il ringhio di un cane o come agita la coda. Il video è denso. Un minuto di video a 60fps contiene 3.600 immagini uniche. Per avvicinarsi all'intelligenza generale, i modelli hanno bisogno di una comprensione molto migliore di causa ed effetto. Hanno bisogno di enormi volumi di video su larga scala. Costringendo gli algoritmi a dare priorità a Reels e Shorts mentre promuovono l'estetica "grezza/non editata", le piattaforme incentivano gli utenti a caricare realtà di alta fedeltà su larga scala. Tuttavia, l'esperienza da sola non è sufficiente. L'intelligenza generale richiede sia un modello del mondo che un segnale su ciò che conta. I creatori forniscono l'esperienza. Gli spettatori forniscono il feedback, e la loro attenzione guida sia le entrate pubblicitarie che fornisce dati di preferenza. Normalizzare occhiali AI e dispositivi di cattura sempre attivi è il passo successivo. Chiudono il divario tra ciò che curi e ciò che vedi realmente. Presi insieme, gli incentivi sono chiari. La maggior parte delle piattaforme non è più ottimizzata per la connessione umana. Sono ottimizzate per estrarre i dati necessari a simularla.