Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Anthropic щойно опублікував одну з найсміливіших статей про штучний інтелект 2025 року.
Вона має назву «Емерджентна інтроспективна обізнаність у великих мовних моделях».
Питання, яке вони поставили, божевільне:
Чи може штучний інтелект помічати власні думки, не просто описувати їх, а насправді виявляти їх у своїх активаціях?
І результати шокують:
→ Claude Opus 4.1 і 4 іноді могли помітити «введені думки» у своїх власних нейронних станах, перш ніж ці думки сформували будь-який результат.
→ Вони навчилися відрізняти реальні текстові дані від внутрішніх ментальних уявлень.
→ Дехто навіть міг сказати, коли їхня остання відповідь не була навмисною — ніби усвідомлюючи, що слова були «вкладені в їхні вуста».
→ У деяких тестах вони могли вибирати, про що думати, коли їм це буде наказано.
Він все ще нестабільний, рідкісний і залежить від контексту, але безперечно реальний.
Вперше ми маємо експериментальний доказ функціональної інтроспекції в системах штучного інтелекту, які можуть спостерігати за частинами власного розуму.
Не свідомість. Але тривожно близько.
Повна стаття статті: трансформаторні схеми. PUB/2025/Самоаналіз

Найкращі
Рейтинг
Вибране

