Myślałem, że ten post to satyra, kiedy go przeczytałem. Używam Claude Code przez 8 godzin dziennie i musiałem stworzyć niestandardowe polecenie w Flashbackerze o nazwie hallucination-hunter, które zasadniczo mówi: "znajdź cały fałszywy kod, który wdrożyłeś w ciągu ostatnich kilku godzin, który nic nie robi, udaje, że coś robi, próbuje robić magiczne rzeczy, itd." Muszę go używać zarówno dla Claude 4 Sonnet, jak i Opus oraz GPT-5 i Qwen-Coder. To, że ludzie o tym nie mówią, nie oznacza, że to nie jest rozwiązany problem. Model benchmaxed, który rzekomo rozwiązuje halucynacje dotyczące informacji/faktów, nie oznacza, że rozwiązuje to w rzeczywistych implementacjach problemów ze świata rzeczywistego. Ludzie przestali o tym rozmawiać, ponieważ łatwo się nudzą i lubią mówić o następnej błyszczącej, przerażającej rzeczy, aby utrzymać ich w złości/strachu/zmartwieniu.
Matt Turck
Matt Turck29 sie 2025
To niezwykłe, że halucynacje AI przeszły z największego tematu sprzed roku czy dwóch do w dużej mierze ustalonego problemu, o którym ludzie prawie już nie rozmawiają.
34,13K