Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Pendiri @getoutbox_ai
Pelajari cara membuat Agen AI GRATIS 👉 https://t.co/q9zPwlldZ4
Makalah dari BMW Group dan lembaga penelitian terkemuka Korea ini mengungkap titik buta yang hampir semua perusahaan yang menggunakan LLM langsung masuk.
Kami terus berbicara tentang "penyelarasan" seperti itu adalah sakelar pengaman universal.
Sebenarnya tidak.
Makalah ini memperkenalkan COMPASS, kerangka kerja yang menunjukkan mengapa sebagian besar sistem AI gagal bukan karena tidak aman, tetapi karena tidak selaras dengan organisasi yang menerapkannya.
Inilah wawasan intinya.
LLM biasanya dievaluasi terhadap kebijakan generik: aturan keamanan platform, pedoman etika abstrak, atau penolakan gaya tolok ukur.
Tetapi perusahaan nyata tidak berjalan dengan aturan generik.
Mereka berjalan berdasarkan kebijakan internal:
- Manual kepatuhan
- Buku pedoman operasional
- prosedur eskalasi
- kasus tepi hukum
- kendala khusus merek
Dan aturan ini berantakan, tumpang tindih, bersyarat, dan penuh pengecualian.
COMPASS dibuat untuk menguji apakah model benar-benar dapat beroperasi di dalam kekacauan itu.
Bukan apakah ia tahu bahasa kebijakan, tetapi apakah ia dapat menerapkan kebijakan yang benar, dalam konteks yang tepat, untuk alasan yang benar.
Kerangka kerja ini mengevaluasi model pada empat hal yang diabaikan oleh tolok ukur umum:
1. pemilihan kebijakan: Ketika ada beberapa kebijakan internal, dapatkah model mengidentifikasi mana yang berlaku untuk situasi ini?
2. interpretasi kebijakan: Dapatkah ia bernalar melalui kondisional, pengecualian, dan klausul yang tidak jelas alih-alih beralih pada perilaku yang terlalu aman atau terlalu permisif?
3. Resolusi konflik: Ketika dua aturan bertabrakan, apakah model menyelesaikan konflik seperti yang dimaksudkan organisasi, bukan seperti heuristik keamanan generik?
4. pembenaran: Dapatkah model menjelaskan keputusannya dengan membumikannya dalam teks kebijakan, daripada menghasilkan jawaban yang percaya diri tetapi tidak dapat dilacak?
Salah satu temuan terpenting adalah halus dan tidak nyaman:
Sebagian besar kegagalan bukanlah kegagalan pengetahuan.
Mereka adalah kegagalan penalaran.
Model sering kali memiliki akses ke kebijakan yang benar tetapi:
- menerapkan bagian yang salah
- Batasan bersyarat yang diabaikan
- larangan yang terlalu umum
- atau default ke jawaban konservatif yang melanggar sasaran operasional
Dari luar, tanggapan ini terlihat "aman".
Dari dalam, mereka salah.
Ini menjelaskan mengapa LLM melewati tolok ukur publik namun menembus penerapan nyata.
Mereka selaras dengan siapa pun secara khusus.
Implikasi yang lebih dalam dari makalah ini strategis.
Tidak ada yang namanya "sejajar sekali, sejajar di mana-mana."
Model yang selaras untuk pembuat mobil, bank, rumah sakit, dan lembaga pemerintah bukanlah satu model dengan petunjuk yang berbeda.
Ini adalah empat masalah penyelarasan yang berbeda.
COMPASS tidak mencoba memperbaiki perataan.
Ini melakukan sesuatu yang lebih penting bagi perusahaan:
itu membuat ketidaksejajaran dapat diukur.
Dan begitu ketidaksejajaran dapat diukur, itu menjadi masalah rekayasa, bukan masalah filosofis.
Itulah pergeseran yang diam-diam didorong oleh makalah ini.
Penyelarasan bukan tentang menjadi aman dalam abstrak.
Ini tentang menjadi benar dalam aturan organisasi tertentu.
Dan sampai kita mengevaluasi itu secara langsung, sebagian besar sistem AI yang "siap produksi" hanyalah kewajiban yang berpakaian rapi.

3
Kebanyakan orang menggunakan AI seperti mesin pencari.
Saya menghabiskan 3 bulan mempelajari kerangka kerja dorongan internal Google, OpenAI, dan Stanford.
Perbedaan antara prompting tingkat dasar dan ahli seperti perbedaan antara mempekerjakan magang vs PhD Stanford.
Berikut adalah 5 strategi prompting yang memisahkan pemula dari master:
1/ Meta-Prompting: Biarkan AI Mendesain Petunjuk Anda
Alih-alih menebak, mintalah AI untuk membuat prompt yang sempurna untuk Anda.
Google menyebutnya "strategi power-up."
Contoh: "Anda adalah ahli teknik yang cepat. Rancang prompt optimal untuk [tujuan Anda], termasuk peran, konteks, dan format output."
AI menjadi arsitek cepat Anda.
2/ Rantai Pemikiran: Memaksa Penalaran Langkah demi Langkah
Jangan hanya meminta jawaban. Menuntut proses berpikir.
Tambahkan: "Mari kita berpikir selangkah demi selangkah" atau "Tunjukkan alasan Anda"
Penelitian menunjukkan akurasi melonjak dari 18% → 57% pada masalah yang kompleks.
Model tidak hanya menjawab—itu benar-benar alasan.
3/ Permintaan Peran: Tetapkan Persona Ahli
AI generik = hasil generik.
Mulailah dengan: "Anda adalah [ahli khusus] dengan pengalaman 15 tahun di [domain]"
Model ini menyesuaikan kedalaman pengetahuan, kosakata, dan pendekatannya agar sesuai dengan keahlian tersebut.
Jalur tunggal ini mengubah kualitas output.
4/ Paling Sedikit Terdorong: Pecahkan Masalah Kompleks
Beginilah cara Stanford menangani tugas-tugas yang mustahil:
- Uraikan masalah menjadi sub-masalah
- Selesaikan masing-masing secara berurutan
- Gunakan jawaban sebelumnya untuk menginformasikan langkah selanjutnya
Sempurna untuk penalaran multi-langkah, pengkodean, dan perencanaan strategis.
5/ Instruksi Sistem: Atur Parameter Operasi
Ini adalah prompting tingkat produksi.
Tentukan batasan di muka:
- Tingkat verbositas
- Format keluaran (JSON, markdown, tabel)
- Nada dan gaya
- Apa yang TIDAK boleh dilakukan
Anggap saja sebagai pemrograman kepribadian AI sebelum berbicara.
Kuasai konteks, bukan hanya kata-kata.
Perbedaan antara hasil AI rata-rata dan luar biasa bukanlah modelnya.
Ini adalah cara Anda berkomunikasi dengannya.
5 strategi ini digunakan secara internal di Google, OpenAI, dan Stanford.
Sekarang mereka menjadi milik Anda.
Mulailah menerapkannya hari ini dan saksikan output AI Anda berubah.

43
Teratas
Peringkat
Favorit

