Andrej Karpathy susține introducerea unui nou termen legat de "ingineria contextului" în dezvoltarea de software AI folosind LLM-uri. Și acest termen a părut mult timp foarte necesar. De fiecare dată când explic oamenilor cum dezvoltăm Nethermind AuditAgent, unul dintre aspectele cheie, pe lângă utilizarea expertizei în domeniu (securitate web3) și utilizarea celor mai bune modele AI disponibile (de la OpenAI, Anthropic și Google) și instrumente pentru LLM, este tocmai "ingineria contextului". Există uneori o expresie "contextul este regele" și chiar este adevărat. LLM-urile, fie că sunt avansate uriașe sau LLM-uri mici optimizate, sunt un instrument puternic, dar ca orice instrument, dacă este pe mâini greșite, veți obține rezultate mult mai puțin promițătoare decât ați putea dacă lucrați corect cu ele. Iar managementul contextului (sau ingineria) este într-adevăr un domeniu complex și nu foarte bine descris, care evoluează constant și a apărut într-adevăr ca o extensie a conceptului de inginerie promptă, care are deja unele conotații negative. În general, Andrej a enumerat principalele aspecte legate de ingineria contextului (pe a doua captură de ecran), dar în fiecare sarcină specifică, oamenii obțin rezultate excelente în mare parte prin încercări și erori, de fiecare dată încercând monoton să selecteze elementele de context potrivite care sunt cu adevărat necesare în această etapă de rezolvare a problemelor, colectând repere pentru fiecare etapă, analizând valorile, împărțind seturile de date în teste, validare și așa mai departe și așa mai departe. Ce părere aveți despre "ingineria contextului"?
Andrej Karpathy
Andrej Karpathy25 iun. 2025
+1 for "context engineering" over "prompt engineering". People associate prompts with short task descriptions you'd give an LLM in your day-to-day use. When in every industrial-strength LLM app, context engineering is the delicate art and science of filling the context window with just the right information for the next step. Science because doing this right involves task descriptions and explanations, few shot examples, RAG, related (possibly multimodal) data, tools, state and history, compacting... Too little or of the wrong form and the LLM doesn't have the right context for optimal performance. Too much or too irrelevant and the LLM costs might go up and performance might come down. Doing this well is highly non-trivial. And art because of the guiding intuition around LLM psychology of people spirits. On top of context engineering itself, an LLM app has to: - break up problems just right into control flows - pack the context windows just right - dispatch calls to LLMs of the right kind and capability - handle generation-verification UIUX flows - a lot more - guardrails, security, evals, parallelism, prefetching, ... So context engineering is just one small piece of an emerging thick layer of non-trivial software that coordinates individual LLM calls (and a lot more) into full LLM apps. The term "ChatGPT wrapper" is tired and really, really wrong.
727