Najlepsze prace AI na @huggingface w tym tygodniu (20-26 października): - Teoretyczne badanie łączenia wewnętrznego prawdopodobieństwa i samokonsystencji w rozumowaniu LLM - Efektywne szkolenie modeli językowych o długim kontekście poprzez rozdzielenie uwagi rdzeniowej - LightMem: Lekka i efektywna generacja z pamięcią wzbogaconą - Każda uwaga ma znaczenie: Efektywna hybrydowa architektura dla rozumowania w długim kontekście - DeepAnalyze: Agentowe duże modele językowe dla autonomicznej nauki o danych - Świat-w-Świecie: Modele świata w zamkniętym świecie - BAPO: Stabilizacja uczenia ze wzmocnieniem off-policy dla LLM poprzez zrównoważoną optymalizację polityki z adaptacyjnym przycinaniem - OmniVinci: Udoskonalanie architektury i danych dla zrozumienia multimodalnego LLM - UniGenBench++: Zjednoczony semantyczny benchmark oceny dla generacji tekstu na obraz - Współpraca człowiek-agent w tworzeniu dokumentów na stronę za mniej niż 0,1 USD Znajdź je poniżej: