Wciąż jest dziwne, że AI może albo wykonać ogromny, wielostronicowy prompt, albo wyjaśnić ogromny, wielostronicowy prompt, albo przeanalizować ogromny, wielostronicowy prompt, w zależności od tego, czy zaczynasz prompt od "Dlaczego to działa?" czy "Zrób lepiej" lub czegokolwiek innego. Większość tokenów to prompt.
Dziwną luką w ofercie Google AI jest ta między narzędziami badawczymi Gemini a NotebookLM. Gemini pozwala na przeprowadzanie głębokich badań, ale tylko w ograniczonym zakresie innych funkcji NotebookLM, podczas gdy NotebookLM nie pozwala na uruchomienie raportu z głębokich badań ani na inne rodzaje interakcji z AI.
Te dwa akapity z badania przeprowadzonego przez Anthropic na temat introspekcji AI zasługują na chwilę uwagi.
Myślę, że można uczciwie powiedzieć, że oba wnioski są dość... kontrowersyjne, ale artykuł podejmuje naprawdę interesującą próbę poparcia tych twierdzeń rzeczywistymi eksperymentami.
Nowe badania Anthropic: Znaki introspekcji w LLM-ach.
Czy modele językowe potrafią rozpoznać swoje własne wewnętrzne myśli? A może po prostu wymyślają wiarygodne odpowiedzi, gdy się o nie pytają? Znaleźliśmy dowody na prawdziwe—choć ograniczone—zdolności introspekcyjne w Claude.