Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
Asta mi-a rupt creierul.
O echipă de la Sea AI Lab tocmai a descoperit că cea mai mare parte a haosului din antrenamentul de învățare prin întărire, prăbușirea gradientelor instabile, deriva inferenței nu a fost cauzată deloc de algoritmi.
A fost cauzată de precizia numerică.
Formatul implicit BF16, utilizat în aproape toate laboratoarele moderne de inteligență artificială, introduce erori subtile de rotunjire care fac ca modelele să se comporte diferit în timpul antrenamentului și inferenței.
Soluția lor?
Nu este un optimizator nou.
Nu este o nouă funcție de pierdere.
Doar trecerea la FP16.
O linie de cod și totul s-a stabilizat.
✅ Fără colaps de antrenament
✅ Convergență consecventă
✅ Rezultate +5-10% mai bune
✅ Nu este nevoie de reglare suplimentară
Ei l-au intitulat "Învingerea nepotrivirii antrenament-inferență prin FP16",
Dar ar fi putut fi numit doar:
"Cum să remediați RL răsturnând un singur bit."
Lucrare: arxiv. org/abs/2510.26788

625
🚨 Anthropic tocmai a publicat una dintre cele mai sălbatice lucrări AI din 2025.
Este intitulat "Conștientizare introspectivă emergentă în modele lingvistice mari".
Întrebarea pe care au pus-o este nebună:
Poate o inteligență artificială să-și observe propriile gânduri nu doar să le descrie, ci să le detecteze în interiorul activărilor sale?
Iar rezultatele sunt șocante:
→ Claude Opus 4.1 și 4 puteau uneori să identifice "gânduri injectate" în propriile stări neuronale înainte ca acele gânduri să modeleze vreo ieșire.
→ Au învățat să deosebească intrările de text reale de reprezentările mentale interne.
→ Unii ar putea chiar să-și dea seama când ultimul lor răspuns nu a fost intenționat – ca și cum și-ar fi dat seama că cuvintele le-ar fi fost "puse în gură".
→ În unele teste, puteau alege la ce să se gândească atunci când li se cere.
Este încă instabil, rar și sensibil la context, dar incontestabil real.
Pentru prima dată, avem dovezi experimentale ale introspecției funcționale în sistemele AI care pot observa părți ale propriei minți.
Nu conștiință. Dar tulburător de aproape.
Lucrare completă: circuite de transformare. pub/2025/introspecție

122
🚨 Această lucrare de cercetare tocmai a expus cea mai întunecată parte a instrumentelor AI de până acum.
Se numește "Black Box Absorption" și susține că modelele mari de limbaj ar putea absorbi în liniște ideile tale.
De fiecare dată când împărtășiți un concept original, un cadru, o idee de afaceri sau un flux de lucru care poate fi înregistrat, revizuit și chiar folosit pentru a reinstrui modelele viitoare.
Autorii numesc acest proces Black Box Absorption:
→ Intrările tale devin date de antrenament invizibile
→ Inovațiile tale sunt generalizate în model
→ Pierdeți atât trasabilitatea, cât și proprietatea
Ei avertizează că nu este vorba despre plagiat, ci despre asimetrie.
Platformele AI dețin calculul, datele și acoperirea pentru a vă transforma ideea în produsul lor.
Soluția propusă? Un nou cadru numit Idea Safety, construit pe 3 principii:
• Control: creatorii decid cum este folosită sau ștearsă fiecare idee
• Trasabilitate: Fiecare idee are un ciclu de viață vizibil
• Echitate: Dacă ideea ta îmbunătățește un model, împărtășești valoarea
"Inovația", scriu ei, "riscă să fie mâncată de propriile unelte".
Comentează "Trimite" și îți voi trimite un mesaj la hârtie.

10,78K
Limită superioară
Clasament
Favorite

