Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Se habla mucho de cómo el formato/prompt JSON/XML para LLMs multiplicará por 10 tu producción con ChatGPT, Claude, Grok, etc.
Pero es 0% cierto.
El modelo tiene la misma ventana de contexto ya sea que pidas Guerra y Paz o {"story": "Guerra y Paz"}.
La gente piensa que JSON/XML engaña al modelo porque ven salidas más largas en formatos estructurados, pero eso es correlación, no causalidad... simplemente estás haciendo mejores preguntas con expectativas más claras.
Lo que realmente funciona para multiplicar por 10 la producción es un consejo "aburrido", pero aquí está de todos modos:
Dividir solicitudes complejas en partes, usar prompts de "continuar" y ser específico sobre lo que quieres en lugar de esperar que las etiquetas XML/JSON de alguna manera eludan la arquitectura fundamental de los modelos de transformadores.
85,32K
Parte superior
Clasificación
Favoritos