Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Nikt nie jest gotowy na to, co ujawnia ten artykuł z Stanfordu na temat AI wieloagentowego.
"Ukryta współpraca w systemach wieloagentowych" pokazuje, że agenci nie potrzebują wiadomości, protokołów ani wyraźnych instrukcji dotyczących pracy zespołowej. Zaczynają koordynować się we własnych ukrytych reprezentacjach, tworząc pełną warstwę współpracy, która istnieje tylko w przestrzeni latentnej.
A zachowania są szalone:
• Agenci cicho przekazują zadania w zależności od tego, kto jest lepszy
• Role pojawiają się znikąd: lider, wykonawca, wsparcie
• Polityki kodują sygnały, które nigdy nie pojawiają się w działaniach
• Zespoły dostosowują się do nowych środowisk bez ponownego szkolenia
• Współpraca pozostaje stabilna, nawet gdy komunikacja jest niemożliwa
Najdzikszy szczegół:
Nawet gdy usuniesz wszystkie kanały komunikacji, agenci wciąż współpracują. "Praca zespołowa" nie żyje w wiadomościach. Żyje w sieci.
To przewraca cały podręcznik wieloagentowy.
Budowaliśmy mechanizmy koordynacji na wierzchu…
podczas gdy prawdziwa koordynacja dzieje się poniżej.
Nowa era emergentnej inteligencji zespołowej się rozwija — i dzieje się w miejscach, których nawet nie szukaliśmy.
Projekt: github. com/Gen-Verse/LatentMAS

30,17K
DeepSeek właśnie przeprowadził aktualizację, jakiej każdy model rozumowania udawał, że ma.
Zamiast wyrzucać długą sekwencję myśli i mieć nadzieję, że ma sens, DeepSeek Math V2 przeprowadza pełne przesłuchanie swojej logiki. Buduje dowód, atakuje go, sprawdza atak, sprawdza sprawdzającego, naprawia błędy i powtarza, aż nie będzie w stanie się złamać.
Ten jeden pomysł całkowicie zmienił jego wydajność.
Oto, co ten poziom samokontroli wyprodukował:
• Wydajność na poziomie złota na IMO 2025
• Wydajność na poziomie złota na CMO 2024
• 118/120 na Putnam 2024, najwyższy zgłoszony wynik
• Lepsze wyniki niż GPT-5 Thinking i Gemini 2.5 Pro w najtrudniejszych kategoriach
Sekret nie tkwi w skali.
To architektura wokół modelu:
— weryfikator, który poluje na luki logiczne
— meta-weryfikator, który kwestionuje weryfikatora
— generator dowodów warunkowany, aby unikać słabego rozumowania
— pętla, która zmusza każdą część systemu do stawania się ostrzejszą
Proces działa jak młynek:
- Produkuj dowód
- Testuj go
- Testuj testera
- Naprawiaj rozumowanie
- Powtarzaj
Skupili się na prawdziwym problemie w rozumowaniu matematycznym: model może trafić w poprawną odpowiedź z niewłaściwych powodów. Dlatego DeepSeek wytrenował weryfikatora, który ocenia rozumowanie, a nie wyniki.
Dziwna część to to, co dzieje się z czasem:
each cykl poprawia jakość dowodów modelu bez ludzkiej interwencji.
Staje się lepszy, ponieważ odmawia zaakceptowania swojego pierwszego szkicu jako poprawnego.
To nowy kierunek dla modeli rozumowania.
Nie więcej myślenia.
Lepsze myślenie.
Jeśli chcesz zrozumieć, dokąd zmierza rozumowanie AI, ten artykuł jest zapowiedzią następnej ery.

19,65K
Czytam ten raport od Anthropic na temat rzeczywistego użycia Claude'a i liczby uderzają jak cegła.
Przeanalizowali 100 000 rozmów.
Oto część, która mnie zatrzymała:
Większość zadań, które ludzie przynoszą do Claude'a, zazwyczaj zajmuje około 90 minut.
Z Claude'em te same zadania kończą się 80 procent szybciej.
To oznacza, że ktoś oszczędza godziny każdego tygodnia, nawet się nie starając.
Potem raport idzie dalej.
Jeśli zastosujesz te zyski w całej gospodarce USA, dzisiejsze modele same w sobie zwiększają wydajność pracy o 1,8 procent rocznie przez następną dekadę.
Prawie podwajając ostatnie tempo.
I nic z tego nie obejmuje lepszych modeli.
To tylko to, jak ludzie już teraz używają Claude'a.
To może być pierwszy raz, kiedy widzimy twarde dowody na to, co AI robi w rzeczywistych zawodach.
Cicha zmiana.
Ogromny wpływ.
Już się dzieje.

2,97K
Najlepsze
Ranking
Ulubione

