Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Nimeni nu este pregătit pentru ceea ce dezvăluie această lucrare de la Stanford despre inteligența artificială multi-agent.
"Latent Collaboration in Multi-Agent Systems" arată că agenții nu au nevoie de mesaje, protocoale sau instrucțiuni explicite de lucru în echipă. Încep să coordoneze în interiorul propriilor reprezentări ascunse un strat complet de colaborare care există doar în spațiul latent.
Și comportamentele sunt nebunești:
• Agenții predau sarcinile în tăcere în funcție de cine este mai bun
• Roluri apar de nicăieri: lider, executor, susținător
• Politicile codifică semnale care nu apar niciodată în acțiuni
• Echipele se adaptează la noi medii fără a se recalifica
• Colaborarea rămâne stabilă chiar și atunci când comunicarea este imposibilă
Cel mai sălbatic detaliu:
Chiar și când elimini toate canalele de comunicare, agenții tot cooperează. "Munca în echipă" nu există în mesaje. Trăiește în rețea.
Asta răstoarnă întregul manual multi-agent.
Am construit mecanisme de coordonare deasupra...
în timp ce adevărata coordonare are loc dedesubt.
Se desfășoară o nouă eră a informațiilor emergente de echipă — și se întâmplă în locurile pe care nici măcar nu le căutam.
Proiect: github. com/Gen-Verse/LatentMAS

138,34K
DeepSeek tocmai a reușit genul de upgrade pe care orice model de raționament a pretins că îl are.
În loc să arunce un lanț lung de gânduri și să spere că are sens, DeepSeek Math V2 rulează o interogare completă pe propria logică. Construiește o demonstrație, o atacă, verifică atacul, verifică verificarea, repară defectele și repetă bucle până când nu se mai poate sparge singură.
Acea singură idee i-a schimbat complet performanța.
Iată ce a produs acel nivel de autoanaliză:
• Performanță de nivel aur la IMO 2025
• Performanță de nivel aur la CMO 2024
• 118/120 la Putnam 2024, cel mai mare scor raportat
• Rezultate mai bune decât GPT-5 Thinking și Gemini 2.5 Pro la cele mai dificile categorii
Secretul nu este scara.
Este arhitectura din jurul modelului:
— un verificator care caută goluri logice
— un meta-verificator care pune sub semnul întrebării verificatorul
— un generator de demonstrații condiționat să evite raționamentul slab
— o buclă care forțează fiecare parte a sistemului să devină mai clară
Procesul funcționează ca o râșniță:
- Să producă o demonstrație
- Testează-l
- Testează testerul
- Repararea raționamentului
-Repeta
Ei au vizat problema reală a raționamentului matematic: un model poate da răspunsul corect din motive greșite. Astfel, DeepSeek a antrenat un verificator care evaluează raționamentul, nu rezultatele.
Partea ciudată este ce se întâmplă în timp:
Fiecare ciclu îmbunătățește calitatea propriei probe a modelului fără curățare umană.
Se îmbunătățește pentru că refuză să accepte prima variantă ca fiind corectă.
Aceasta este o nouă direcție pentru modelele de raționament.
Nu mai gândesc.
Gândire mai bună.
Dacă vrei să înțelegi încotro se îndreaptă raționamentul AI, această lucrare este o previzualizare a următoarei ere.

19,79K
Citesc acest raport de la Anthropic despre utilizarea reală a lui Claude și cifrele au lovit ca o cărămidă.
Au trecut prin 100.000 de conversații.
Iată partea care m-a oprit:
Majoritatea sarcinilor pe care oamenii le aduc lui Claude durează în jur de 90 de minute.
Cu Claude, aceleași sarcini se încheie cu 80% mai repede.
Asta înseamnă cineva care economisește ore în fiecare săptămână fără să încerce măcar.
Apoi raportul devine mai mare.
Dacă aplici aceste câștiguri la nivelul economiei SUA, modelele actuale doar împing productivitatea muncii cu 1,8% pe an în următorul deceniu.
Aproape dublu față de ritmul recent.
Și nimic din toate acestea nu include modele mai bune.
Așa folosesc oamenii deja Claude acum.
Aceasta ar putea fi prima dată când vedem dovezi clare despre ceea ce face AI în interiorul locurilor de muncă reale.
Schimb liniștit.
Impact uriaș.
Se întâmplă deja.

3K
Limită superioară
Clasament
Favorite

