Wir haben dieses Modell trainiert, um die Wirtschaftlichkeit der Rahmenbeschriftung, Kennzeichnung und Videosuche umzukehren. Die Verarbeitung von 1 Milliarde Frames kostete früher Millionen, ist jetzt jedoch für Teams, die nicht die größten Unternehmen sind, rentabel. Wir sehen, dass dies petabyte-große Video-Bibliotheken erschließt, die zuvor unmöglich zu durchsuchen, zu kategorisieren oder Clips daraus zu extrahieren waren. Wir haben dieses Modell bereits in Partnerschaft mit @grass in Internetgröße implementiert. Wenn Sie einen Anwendungsfall für dieses Modell haben, senden Sie uns eine DM. Wir handeln extrem schnell.
Inference
Inference15. Aug., 02:02
Einführung von ClipTagger-12b. Ein hochmodernes Videoannotationsmodell, das in Zusammenarbeit mit @grass trainiert wurde. ClipTagger-12b bietet Videoannotationsfähigkeiten, die mit Claude 4 und GPT-4.1 vergleichbar sind, jedoch zu 17x niedrigeren Kosten. Erfahren Sie mehr:
3,53K