Vi tränade den här modellen för att vända enhetsekonomin för bildtexter, etiketter och videosökning. Att bearbeta 1 miljard ramar brukade kosta i storleksordningen miljoner, men är nu genomförbart för team som inte är de största företagen. Vi ser detta låsa upp videobibliotek i petabyte+-skala, som tidigare var omöjliga att söka, kategorisera eller extrahera klipp från. Vi har redan distribuerat den här modellen i Internetskala i samarbete med @grass. Om du har ett användningsområde för den här modellen kan du använda ett dm. Vi rör oss extremt snabbt.
Inference
Inference15 aug. 02:02
Vi presenterar ClipTagger-12b. En toppmodern videoannoteringsmodell som tränats i samarbete med @grass. ClipTagger-12b levererar videoannoteringsfunktioner i nivå med Claude 4 och GPT-4.1 till 17 gånger lägre kostnad. Lära sig mer:
4,34K