Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mycket prat om hur JSON/XML-formatering/uppmaningar för LLM kommer att 10x din utdata av ChatGPT, Claude, Grok etc.
Men det är 0% sant.
Modellen har samma kontextfönster oavsett om du frågar efter Krig och fred eller {"story": "War and Peace"}.
Folk tror att JSON/XML lurar modellen eftersom de ser längre utdata i strukturerade format, men det är korrelation och inte orsakssamband.... Du ställer bara bättre frågor med tydligare förväntningar.
Vad som faktiskt fungerar till 10x output är "tråkiga" råd men här är det i alla fall:
Dela upp komplexa förfrågningar i bitar, använd "fortsätt"-uppmaningar och var specifik om vad du vill ha istället för att hoppas på att XML/JSON-taggar på något sätt ska kringgå den grundläggande arkitekturen för transformatormodeller.
85,33K
Topp
Rankning
Favoriter