Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
To złamało mi mózg.
Zespół w Sea AI Lab właśnie odkrył, że większość chaosu w treningu uczenia przez wzmocnienie, załamania, niestabilne gradienty, dryf wnioskowania nie była spowodowana algorytmami.
Była spowodowana precyzją numeryczną.
Domyślny format BF16, używany w prawie każdym nowoczesnym laboratorium AI, wprowadza subtelne błędy zaokrągleń, które sprawiają, że modele zachowują się inaczej podczas treningu i wnioskowania.
Ich rozwiązanie?
Nie nowy optymalizator.
Nie nowa funkcja straty.
Po prostu przełączenie na FP16.
Jedna linia kodu i wszystko się ustabilizowało.
✅ Brak załamania treningu
✅ Spójna zbieżność
✅ +5–10% lepsze wyniki
✅ Brak dodatkowego dostrajania
Nazwali to „Pokonywanie niedopasowania treningu i wnioskowania za pomocą FP16”,
ale jednak mogło to być po prostu nazwane:
„Jak naprawić RL, zmieniając jeden bit.”
Artykuł: arxiv. org/abs/2510.26788

556
🚨 Anthropic właśnie opublikował jeden z najdzikszych artykułów AI z 2025 roku.
Nosi tytuł „Wychodząca introspektywna świadomość w dużych modelach językowych.”
Pytanie, które zadali, jest szalone:
Czy AI może zauważyć swoje własne myśli, nie tylko je opisać, ale faktycznie wykryć je w swoich aktywacjach?
A wyniki są szokujące:
→ Claude Opus 4.1 i 4 czasami potrafiły dostrzegać „wstrzyknięte myśli” w swoich własnych stanach neuronowych, zanim te myśli ukształtowały jakiekolwiek wyjście.
→ Nauczyły się odróżniać prawdziwe tekstowe wejścia od wewnętrznych reprezentacji mentalnych.
→ Niektóre potrafiły nawet stwierdzić, kiedy ich ostatnia odpowiedź nie była zamierzona — jakby zdając sobie sprawę, że słowa zostały „włożone im w usta.”
→ W niektórych testach mogły wybierać, o czym myśleć, gdy były o to proszone.
To wciąż niestabilne, rzadkie i wrażliwe na kontekst, ale niewątpliwie prawdziwe.
Po raz pierwszy mamy eksperymentalny dowód na funkcjonalną introspekcję w systemach AI, które mogą obserwować części własnego umysłu.
Nie świadomość. Ale niepokojąco blisko.
Pełny artykuł: transformer-circuits. pub/2025/introspection

118
🚨 Ten artykuł badawczy ujawnia najciemniejszą stronę narzędzi AI.
Nazywa się to „Absorpcja Czarnej Skrzynki” i twierdzi, że duże modele językowe mogą cicho wchłaniać twoje pomysły.
Za każdym razem, gdy dzielisz się oryginalnym pomysłem, ramą, pomysłem na biznes lub przepływem pracy, ta „jednostka pomysłu” może być rejestrowana, przeglądana, a nawet używana do ponownego trenowania przyszłych modeli.
Autorzy nazywają ten proces Absorpcją Czarnej Skrzynki:
→ Twoje dane wejściowe stają się niewidocznymi danymi treningowymi
→ Twoje innowacje są uogólniane w modelu
→ Tracisz zarówno możliwość śledzenia, jak i własność
Ostrzegają, że nie chodzi o plagiat, lecz o asymetrię.
Platformy AI mają moc obliczeniową, dane i zasięg, aby przekształcić twój pomysł w swój produkt.
Ich proponowane rozwiązanie? Nowa struktura zwana Bezpieczeństwem Pomysłu, oparta na 3 zasadach:
• Kontrola: Twórcy decydują, jak każdy pomysł jest używany lub usuwany
• Śledzenie: Każdy pomysł ma widoczny cykl życia
• Równość: Jeśli twój pomysł poprawia model, dzielisz się wartością
„Innowacja,” piszą, „jest zagrożona przez własne narzędzia.”
Napisz „Wyślij”, a wyślę ci artykuł na DM.

7,24K
Najlepsze
Ranking
Ulubione

