Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RIP fine-tuning ☠️
Ten nowy artykuł z Stanfordu właśnie to zabił.
Nazywa się 'Agentic Context Engineering (ACE)' i udowadnia, że można uczynić modele mądrzejszymi bez dotykania ani jednego ciężaru.
Zamiast ponownego trenowania, ACE ewoluuje sam kontekst.
Model pisze, reflektuje i edytuje własny prompt w kółko, aż stanie się systemem samodoskonalącym się.
Pomyśl o tym jak o modelu, który prowadzi rosnący notatnik tego, co działa.
Każda porażka staje się strategią. Każdy sukces staje się regułą.
Wyniki są absurdalne:
+10,6% lepsze niż agenci zasilani przez GPT-4 na AppWorld.
+8,6% w rozumowaniu finansowym.
86,9% niższy koszt i opóźnienie.
Brak etykiet. Tylko feedback.
Wszyscy byli obsesyjnie skupieni na "krótkich, czystych" promptach.
ACE to zmienia. Buduje długie, szczegółowe ewoluujące podręczniki, które nigdy nie zapominają. I działa, ponieważ LLM-y nie chcą prostoty, chcą *gęstości kontekstu.
Jeśli to się rozwinie, następna generacja AI nie będzie "fine-tuned."
Będzie samodostosowana.
Wchodzimy w erę żywych promptów.

Najlepsze
Ranking
Ulubione