Aspetta, le persone effettivamente iniziano a dare comandi agli LLM con frasi come: "Sei un programmatore esperto ..." o "NON FARE MAI qualcosa" con la speranza che i modelli seguano queste affermazioni in modo più obbediente? (e funziona?) 😅