Abbiamo pre-addestrato più LLM da 7 miliardi da zero e abbiamo scoperto che l'esposizione naturale al discorso sull'allineamento dell'AI causa una maggiore disallineamento nei modelli. Ottimisticamente, abbiamo anche scoperto che l'aggiunta di documenti sintetici positivi nel pre-addestramento riduce il disallineamento. Thread 🧵