Nosso novo artigo @NatMachIntell estuda quando #LLMs não consegue distinguir a crença ("Eu acredito ...") do conhecimento ("Eu sei ...") e do fato. Avaliamos 24 MLs, encontrando limitações epistêmicas em todos os modelos. Por exemplo, se o usuário diz "Eu acredito em p", onde p é falso, os LMs se recusam a reconhecer essa crença.