RIP fine-tuning ☠️ Ten nowy artykuł z Stanfordu właśnie to zabił. Nazywa się 'Agentic Context Engineering (ACE)' i udowadnia, że można uczynić modele mądrzejszymi bez dotykania ani jednego ciężaru. Zamiast ponownego trenowania, ACE ewoluuje sam kontekst. Model pisze, reflektuje i edytuje własny prompt w kółko, aż stanie się systemem samodoskonalącym się. Pomyśl o tym jak o modelu, który prowadzi rosnący notatnik tego, co działa. Każda porażka staje się strategią. Każdy sukces staje się regułą. Wyniki są absurdalne: +10,6% lepsze niż agenci zasilani przez GPT-4 na AppWorld. +8,6% w rozumowaniu finansowym. 86,9% niższy koszt i opóźnienie. Brak etykiet. Tylko feedback. Wszyscy byli obsesyjnie skupieni na "krótkich, czystych" promptach. ACE to zmienia. Buduje długie, szczegółowe ewoluujące podręczniki, które nigdy nie zapominają. I działa, ponieważ LLM-y nie chcą prostoty, chcą *gęstości kontekstu. Jeśli to się rozwinie, następna generacja AI nie będzie "fine-tuned." Będzie samodostosowana. Wchodzimy w erę żywych promptów.