O problema bajulador do LLM é muito ruim. Não confio mais em nenhuma resposta padrão de um LLM e quase sempre sigo a primeira resposta com algo como "você tem certeza?" Eu geralmente tenho que fazer alguma forma disso 2-3 vezes antes de obter informações que acredito serem um pouco precisas. Não consigo nem imaginar quantos problemas isso causa para os normies que estão apenas descobrindo a IA e estão convencidos de que é mágica.
11,28K