Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Morsomt hvordan de presser på for rått, ufullkomment, «virkelig deg»-innhold (nå bransjens konsensusfortelling) akkurat når plattformer trenger høyvarians-opptak og data for å trene AI på.
Der diskusjonen rammer inn dette skiftet som kulturell tilpasning, er det også verdt å undersøke plattformens insentiver som akseler det.
Hvis de virkelig brydde seg om hva brukerne ønsket, ville de ha beholdt en sunnere blanding av bilder i feeden, som brukerne stadig sier de savner. Men med nesten alle statiske bilder på det åpne internett allerede skrapet for å trene modeller, er bildene i praksis "løst."
Et statisk bilde lærer AI hvordan en hund ser ut, men det lærer ikke hvordan hundens bjeffing høres ut eller hvordan den logrer med halen.
Video er tett. Ett minutt med 60fps-video inneholder 3 600 unike bilder. For å nærme seg generell intelligens trenger modeller en langt bedre forståelse av årsak og virkning. De trenger enorme mengder video i stor skala.
Ved å tvinge algoritmer til å prioritere Reels og Shorts samtidig som de fremmer den «rå/uredigerte estetikken», gir plattformene brukerne insentiver til å laste opp virkelighet med høyere kvalitet i stor skala.
Likevel er ikke erfaring alene nok. Generell etterretning krever både en modell av verden og et signal for det som betyr noe. Skaperne leverer opplevelsen. Seerne gir tilbakemeldingene, og deres oppmerksomhet både gir annonseinntekter og gir preferansedata.
Å normalisere AI-briller og alltid-på-opptaksenheter er neste steg. De lukker gapet mellom det du kuraterer og det du faktisk ser.
Samlet sett er insentivene tydelige.
De fleste plattformer er ikke lenger optimalisert for menneskelig kontakt. De er optimalisert for å hente ut dataene som trengs for å simulere det.
Topp
Rangering
Favoritter
