Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Gründer von @getoutbox_ai
Lernen Sie, wie Sie KI-Agenten KOSTENLOS 👉 https://t.co/q9zPwlldZ4
Dieses Papier von der BMW Group und dem führenden Forschungsinstitut Koreas deckt einen blinden Fleck auf, in den fast jedes Unternehmen, das LLMs verwendet, direkt hineinläuft.
Wir reden ständig von "Ausrichtung", als wäre es ein universeller Sicherheitsschalter.
Das ist es nicht.
Das Papier stellt COMPASS vor, ein Framework, das zeigt, warum die meisten KI-Systeme nicht scheitern, weil sie unsicher sind, sondern weil sie nicht mit der Organisation, die sie einsetzt, ausgerichtet sind.
Hier ist die zentrale Erkenntnis.
LLMs werden normalerweise anhand generischer Richtlinien bewertet: Plattform-Sicherheitsregeln, abstrakte ethische Richtlinien oder Benchmark-ähnliche Ablehnungen.
Aber echte Unternehmen arbeiten nicht mit generischen Regeln.
Sie arbeiten mit internen Richtlinien:
- Compliance-Handbücher
- Betriebsleitfäden
- Eskalationsverfahren
- rechtliche Sonderfälle
- markenspezifische Einschränkungen
Und diese Regeln sind unordentlich, überlappend, bedingt und voller Ausnahmen.
COMPASS wurde entwickelt, um zu testen, ob ein Modell tatsächlich in diesem Durcheinander operieren kann.
Nicht, ob es die Richtlinienterminologie kennt, sondern ob es die richtige Richtlinie im richtigen Kontext aus den richtigen Gründen anwenden kann.
Das Framework bewertet Modelle anhand von vier Aspekten, die typische Benchmarks ignorieren:
1. Richtlinienauswahl: Wenn mehrere interne Richtlinien existieren, kann das Modell identifizieren, welche auf diese Situation zutrifft?
2. Richtlinieninterpretation: Kann es durch Bedingungen, Ausnahmen und vage Klauseln argumentieren, anstatt auf übermäßig sichere oder übermäßig permissive Verhaltensweisen zurückzugreifen?
3. Konfliktlösung: Wenn zwei Regeln kollidieren, löst das Modell den Konflikt so, wie es die Organisation beabsichtigt, und nicht so, wie es eine generische Sicherheitsheuristik tun würde?
4. Begründung: Kann das Modell seine Entscheidung erklären, indem es sie im Richtlinientext verankert, anstatt eine selbstbewusste, aber nicht nachvollziehbare Antwort zu geben?
Eine der wichtigsten Erkenntnisse ist subtil und unangenehm:
Die meisten Fehler waren keine Wissensfehler.
Es waren Denkfehler.
Modelle hatten oft Zugang zur richtigen Richtlinie, aber:
- wendeten den falschen Abschnitt an
- ignorierten bedingte Einschränkungen
- verallgemeinerten Verbote
- oder defaulteten auf konservative Antworten, die operative Ziele verletzten
Von außen sehen diese Antworten "sicher" aus.
Von innen sind sie falsch.
Das erklärt, warum LLMs öffentliche Benchmarks bestehen, aber in realen Einsätzen versagen.
Sie sind mit niemandem im Besonderen ausgerichtet.
Die tiefere Implikation des Papiers ist strategisch.
Es gibt kein "einmal ausgerichtet, überall ausgerichtet".
Ein Modell, das für einen Automobilhersteller, eine Bank, ein Krankenhaus und eine Regierungsbehörde ausgerichtet ist, ist nicht ein Modell mit unterschiedlichen Eingabeaufforderungen.
Es sind vier verschiedene Ausrichtungsprobleme.
COMPASS versucht nicht, die Ausrichtung zu beheben.
Es tut etwas Wichtigeres für Unternehmen:
es macht Fehlanpassungen messbar.
Und sobald Fehlanpassungen messbar sind, wird es zu einem Ingenieurproblem anstatt zu einem philosophischen.
Das ist der Wandel, den dieses Papier leise vorantreibt.
Ausrichtung geht nicht darum, abstrakt sicher zu sein.
Es geht darum, innerhalb der spezifischen Regeln einer Organisation korrekt zu sein.
Und bis wir das direkt bewerten, sind die meisten "produktionsbereiten" KI-Systeme einfach gut gekleidete Verbindlichkeiten.

35
Die meisten Menschen nutzen KI wie eine Suchmaschine.
Ich habe 3 Monate damit verbracht, die internen Prompting-Frameworks von Google, OpenAI und Stanford zu studieren.
Der Unterschied zwischen grundlegenden und Experten-Prompts ist wie der Unterschied zwischen der Einstellung eines Praktikanten und einem Stanford-PhD.
Hier sind 5 Prompting-Strategien, die Anfänger von Meistern unterscheiden:
1/ Meta-Prompting: Lass die KI deine Prompts entwerfen
Anstatt zu raten, bitte die KI, den perfekten Prompt für dich zu erstellen.
Google nennt dies "Power-Up-Strategien."
Beispiel: "Du bist ein Experte für Prompt-Engineering. Entwerfe den optimalen Prompt für [dein Ziel], einschließlich Rolle, Kontext und Ausgabeformat."
Die KI wird zu deinem Prompt-Architekten.
2/ Chain-of-Thought: Zwinge Schritt-für-Schritt-Denken
Frag nicht nur nach Antworten. Fordere den Denkprozess.
Füge hinzu: "Lass uns Schritt für Schritt denken" oder "Zeige dein Denken"
Forschung zeigt, dass die Genauigkeit bei komplexen Problemen von 18 % → 57 % steigt.
Das Modell antwortet nicht nur – es denkt tatsächlich nach.
3/ Role Prompting: Weisen Sie Experten-Personas zu
Generische KI = generische Ergebnisse.
Beginne mit: "Du bist ein [spezifischer Experte] mit 15 Jahren Erfahrung in [Bereich]"
Das Modell passt seine Wissensvertiefung, seinen Wortschatz und seinen Ansatz an diese Expertise an.
Diese einzige Zeile verwandelt die Ausgabequalität.
4/ Least-to-Most Prompting: Zerlege komplexe Probleme
So geht Stanford mit unmöglichen Aufgaben um:
- Zerlege das Problem in Teilprobleme
- Löse jedes nacheinander
- Nutze vorherige Antworten, um die nächsten Schritte zu informieren
Perfekt für mehrstufiges Denken, Programmierung und strategische Planung.
5/ System Instructions: Setze Betriebsparameter
Dies ist das Prompting auf Produktionsniveau.
Definiere die Einschränkungen im Voraus:
- Grad der Ausführlichkeit
- Ausgabeformat (JSON, Markdown, Tabellen)
- Ton und Stil
- Was NICHT zu tun ist
Denke daran, es ist wie das Programmieren der Persönlichkeit der KI, bevor sie spricht.
Beherrsche den Kontext, nicht nur die Worte.
Der Unterschied zwischen durchschnittlichen und außergewöhnlichen KI-Ergebnissen liegt nicht im Modell.
Es liegt daran, wie du mit ihr kommunizierst.
Diese 5 Strategien werden intern bei Google, OpenAI und Stanford verwendet.
Jetzt sind sie deine.
Beginne, sie heute anzuwenden, und beobachte, wie sich deine KI-Ausgaben verwandeln.

47
Top
Ranking
Favoriten

