Odkrywam, że coraz trudniej jest mi zrozumieć najnowsze postępy w dziedzinie AI. Okazuje się, że mHC, które Deepseek opublikował niedawno, jest tak ważne, że może obniżyć koszty treningu modeli na froncie o 30-50%. To dla dużych firm, które wydają setki miliardów dolarów na Capex, jest jak bomba głębinowa. Czuję, że nowa runda wyścigu zbrojeń w zakresie mocy obliczeniowej się rozpoczęła, a pasywna umiejętność paradoksu Jevonsa znowu zostanie aktywowana. Teoria macierzy, geometria rozmaitości i inne zaawansowane matematyczne podstawy odgrywają coraz ważniejszą rolę w dziedzinie AI, ale odsetek ludzi, którzy potrafią je zrozumieć, maleje, co jest dość frustrujące.