Ich habe es nicht geglaubt, als ich es zum ersten Mal sah, aber: Wir haben ein Modell für den Prompt-Stealing-Ansatz trainiert, das eine >3-fache SoTA-Genauigkeit erreicht. Das Geheimnis stellt LLM-Ausgaben *korrekt* dar 🚲 Demo/Blog: 📄: 🤖: 🧑‍💻:
8,74K