Principais artigos de IA no @huggingface esta semana (20 a 26 de outubro): - Um estudo teórico sobre a ponte entre probabilidade interna e autoconsistência para o raciocínio LLM - Treinamento eficiente de modelo de linguagem de contexto longo por desagregação de atenção central - LightMem: Geração Aumentada de Memória Leve e Eficiente - Toda atenção é importante: uma arquitetura híbrida eficiente para raciocínio de longo contexto - DeepAnalyze: Modelos de linguagem grande e agênticos para ciência de dados autônoma - Mundo no mundo: modelos mundiais em um mundo de circuito fechado - BAPO: Estabilizando o aprendizado por reforço fora da política para LLMs por meio da otimização equilibrada de políticas com recorte adaptativo - OmniVinci: aprimorando a arquitetura e os dados para o LLM de compreensão omnimodal - UniGenBench++: Um benchmark de avaliação semântica unificada para geração de texto para imagem - Elaboração colaborativa de papel para página de agente humano por menos de US $ 0,1 Encontre-os abaixo: