C'è molto parlare di come la formattazione/prompts JSON/XML per i LLM aumenterà di 10 volte la tua produzione di ChatGPT, Claude, Grok, ecc. Ma è 0% vero. Il modello ha la stessa finestra di contesto che tu stia chiedendo Guerra e Pace o {"story": "Guerra e Pace"}. La gente pensa che JSON/XML inganni il modello perché vedono output più lunghi in formati strutturati, ma quella è correlazione, non causalità... stai solo facendo domande migliori con aspettative più chiare. Ciò che funziona davvero per aumentare di 10 volte l'output è un consiglio "noioso", ma eccolo comunque: Suddividere richieste complesse in parti, utilizzare prompts "continua" e essere specifici su ciò che vuoi invece di sperare che i tag XML/JSON possano in qualche modo bypassare l'architettura fondamentale dei modelli transformer.
80,58K