Widzieliśmy 3 wyraźne fale startupów AI na poziomie aplikacji od momentu wydania ChatGPT, z każdą falą z większą konkurencją i konsolidacją. Właśnie weszliśmy w falę nr 3, a dynamika konkurencyjna zmienia się w interesujący sposób:
Fala 1️⃣ to były opakowania i sprytne podpowiedzi z dopracowanymi interfejsami, które szybko zostały wyprzedzone, gdy modele bazowe się poprawiły.
Fala 2️⃣ to były startupy „natywne w AI”, które budowały niestandardowe potoki danych i wbudowane przepływy pracy, ale wiele z nich zostało przyciśniętych, gdy platformy, na których polegały, uruchomiły konkurencyjne aplikacje.
Teraz jesteśmy w Fali 3️⃣, erze agentów. Napędzani przez RL, ta fala dotyczy agentów, którzy się uczą - optymalizując przepływy pracy w czasie, zamiast polegać na statycznych podpowiedziach. Dostawcy modeli dostarczają tych agentów bezpośrednio do użytkowników (Tryb Agenta OpenAI, Claude Code Anthropic), a poprzeczka dla "AI-native" szybko rośnie.
Startupy budują agentów napędzanych RL, którzy obserwują całe procesy. Agent sprzedaży może nauczyć się, że kontaktowanie się dwa dni po demonstracji przynosi lepsze wyniki niż po jednym dniu, lub że transakcje fintech zamykają się szybciej, gdy inżynier sprzedaży jest zaangażowany od samego początku. Ci agenci uczą się wiedzy tacitnej, która nie występuje w tradycyjnych CRM-ach.
Wielkie technologie kontrolują ogromne historyczne zbiory danych (Google z danymi wyszukiwania, Meta z danymi społecznymi). Czego im brakuje, to widoczności w pełnym łańcuchu decyzji, działań i przekazów, które definiują, jak faktyczna praca jest wykonywana.
Lepsze modele bazowe, takie jak ulepszenia OpenAI, tylko zwiększają zdolność tych agentów do uczenia się, a strumień danych interakcji generowanych przez użytkowników i agentów współpracujących razem staje się kluczowym aktywem własnościowym w AI.
330