Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Rok 2025 je rokem agentů a klíčovou schopností agentů jsou nástroje pro volání.
Při použití Claude Code mohu říct umělé inteligenci, aby prošla newsletter, našla všechny odkazy na startupy a ověřila, že existují v našem CRM, a to jediným příkazem. To může zahrnovat volání dvou nebo tří různých nástrojů.
Ale tady je problém: použití velkého základního modelu pro toto je drahé, často omezené rychlostí a příliš výkonné pro výběrový úkol.
Jaký je nejlepší způsob, jak vytvořit agentický systém s voláním nástrojů?
Odpověď se skrývá v malých akčních modelech. NVIDIA vydala přesvědčivý článek, ve kterém tvrdí, že "malé jazykové modely (SLM) jsou dostatečně výkonné, ze své podstaty vhodnější a nutně ekonomičtější pro mnoho vyvolání v agentních systémech".
Testoval jsem různé místní modely, abych ověřil cvičení snižování nákladů. Začal jsem s modelem parametrů Qwen3:30b, který funguje, ale může být docela pomalý, protože je to tak velký model, i když jsou v jednom okamžiku aktivní pouze 3 miliardy z těchto 30 miliard parametrů.
Dokument společnosti NVIDIA doporučuje model Salesforce xLAM – odlišnou architekturu označovanou jako model velkých akcí speciálně navrženou pro výběr nástrojů.
Provedl jsem tedy svůj vlastní test, každý model volal nástroj se seznamem mých úkolů v Asaně.
Výsledky byly pozoruhodné: xLAM dokončil úkoly za 2,61 sekundy se 100% úspěšností, zatímco Qwen to trvalo 9,82 sekundy s 92% úspěšností – téměř čtyřikrát déle.
Tento experiment ukazuje nárůst rychlosti, ale je zde kompromis: kolik inteligence by mělo být v modelu ve srovnání se samotnými nástroji. Tento omezený
U větších modelů, jako je Qwen, mohou být nástroje jednodušší, protože model má lepší odolnost proti chybám a dokáže obejít špatně navržená rozhraní. Model kompenzuje omezení nástroje pomocí uvažování hrubou silou.
U menších modelů má model menší schopnost zotavit se z chyb, takže nástroje musí být robustnější a logika výběru přesnější. Může se to zdát jako omezení, ale ve skutečnosti se jedná o funkci.
Toto omezení eliminuje složenou chybovost zřetězených nástrojů LLM. Když velké modely provádějí sekvenční volání nástrojů, chyby se hromadí exponenciálně.
Malé akční modely si vynucují lepší návrh systému, zachovávají to nejlepší z LLM a kombinují je se specializovanými modely.
Tato architektura je efektivnější, rychlejší a předvídatelnější.


4,97K
Proč se počáteční kolo pod 5 milionů dolarů zmenšuje?
Před deseti lety tvořila tato menší kola páteř financování startupů a tvořila více než 70 % všech počátečních obchodů. Dnes data PitchBooku ukazují, že toto číslo kleslo na méně než polovinu.
Čísla vyprávějí drsný příběh. Obchody pod 5 milionů USD klesly z 62,5 % v roce 2015 na 37,5 % v roce 2024. Tento pokles o 29,5 procentního bodu zásadně změnil způsob, jakým startupy získávají svůj první institucionální kapitál.
Tuto transformaci poháněly tři síly. Můžeme tento úpadek rozložit, abychom pochopili, co snížilo malé počáteční kolo a proč je to pro zakladatele dnes důležité.

4,55K
To byla taková zábava, Mario. Díky, že jste mě pozvali do pořadu, abych mluvil o všem, co se děje na trhu!

Mario Gabriele 🦊22. 7. 2025
Naše nejnovější epizoda s Tomaszem Tunguzem je živá!
Desetiletí dat
@ttunguz strávil téměř dvě desetiletí přeměnou dat na investiční poznatky. Poté, co podpořil společnosti Looker, Expensify a Monte Carlo ve společnosti Redpoint Ventures, zahájil v roce 2022 @Theoryvc s odvážnou vizí: vybudovat "investiční společnost", kde výzkumníci, inženýři a provozovatelé sedí po boku investorů a vytvářejí tržní mapy v reálném čase a interní nástroje umělé inteligence. Jeho debutový fond uzavřel na 238 milionech dolarů, následovaný o pouhých 19 měsíců později druhým fondem ve výši 450 milionů dolarů. Společnost Theory, která se zaměřuje na data, umělou inteligenci a kryptografickou infrastrukturu, působí v srdci dnešních nejzávažnějších technologických změn. Zkoumáme, jak data přetvářejí rizikový kapitál, proč jsou narušovány tradiční investiční modely a co je potřeba k vybudování firmy, která nejen předpovídá budoucnost, ale aktivně ji pomáhá vytvářet.
Poslechněte si nyní:
• YouTube:
• Spotify:
•Jablko:
Velké poděkování patří neuvěřitelným sponzorům, díky kterým podcast vzniká:
✨ Brex — Bankovní řešení pro startupy:
✨ Generalist+ — Základní inteligence pro moderní investory a technology:
Zkoumáme:
→ Jak funguje model "investiční korporace" společnosti Theory
→ Proč by kryptoburzy mohly vytvořit životaschopnou cestu na veřejné trhy pro softwarové společnosti s malou tržní kapitalizací
→ Hrozící energetická krize – proč by datová centra mohla do pěti let spotřebovávat 15 % elektřiny v USA
→ rychlý vzestup stablecoinů, protože hlavní banky přes ně přesměrovávají 5-10 % amerických dolarů
→ Proč Ethereum čelí existenční výzvě podobné tomu, když AWS v éře umělé inteligence ztrácí půdu pod nohama ve prospěch Azure
→ Proč Tomasz věří, že z dnešní hrstky agentů se do konce roku stane 100+ digitálních spolupracovníků
→ Proč Meta sází miliardy na brýle pro rozšířenou realitu, aby změnila způsob, jakým komunikujeme se stroji
→ Jak Theory Ventures využívá umělou inteligenci k urychlení průzkumu trhu, analýzy obchodů a investičních rozhodnutí
… A mnohem více!
7,89K
OpenAI obdrží v průměru 1 dotaz na Američana denně.
Google obdrží přibližně 4 dotazy na Američana denně.
Od té doby má 50 % vyhledávacích dotazů Google přehledy AI, což znamená, že nejméně 60 % vyhledávání v USA je nyní AI.
Trvalo to trochu déle, než jsem očekával, než se to stalo. V roce 2024 jsem předpověděl, že 50 % spotřebitelských vyhledávání bude vybaveno umělou inteligencí. (
Umělá inteligence však dorazila do vyhledávání.
Pokud jsou vzorce vyhledávání Google nějakým ukazatelem, existuje zákon síly v chování vyhledávání. Analýza chování ve vyhledávání Google společnosti SparkToro ukazuje, že horní třetina Američanů, kteří vyhledávají, provádí více než 80 % všech vyhledávání – což znamená, že využití umělé inteligence pravděpodobně nebude rovnoměrně rozloženo – jako v budoucnosti.
Webové stránky a podniky začínají pociťovat dopady tohoto jevu. Článek v The Economist "Umělá inteligence zabíjí web. Může ho něco zachránit?" zachycuje duch doby v titulku. (
Naprostá většina Američanů nyní vyhledává pomocí umělé inteligence. Druhořadé efekty ze změny vzorců vyhledávání přicházejí ve druhé polovině tohoto roku a více lidí se bude ptát: "Co se stalo s mým provozem?" (
AI je nový distribuční kanál a ti, kteří jej využijí, získají podíl na trhu.
- William Gibson viděl mnohem dále do budoucnosti!
- Toto je založeno na analýze středního bodu grafu SparkToro, je to velmi jednoduchá analýza a v důsledku toho má nějakou chybu.

8,73K
Při práci s umělou inteligencí se zastavím, než něco napíšu do pole, abych si položil otázku: co od umělé inteligence očekávám?
2x2 na pomoc! Ve které krabici jsem?
Na jedné ose, kolik kontextu poskytuji: ne moc až docela dost. Na druhou stranu, zda mám sledovat umělou inteligenci, nebo ji nechat běžet.
Pokud poskytnu velmi málo informací a nechám systém běžet: "zkoumejte trendy Forward Deployed Engineers", dostanu zahozené výsledky: široké přehledy bez relevantních detailů.
Spuštěním stejného projektu s řadou krátkých otázek se vytvoří iterativní konverzace, která je úspěšná – průzkum.
"Které společnosti zavedly předsunuté inženýry (FDE)? Jaké jsou typické příčiny FDE? Jaké typy smluvních struktur a podniků se k této práci hodí?"
Když mám velmi nízkou toleranci k chybám, poskytuji rozsáhlý kontext a pracuji iterativně s AI. U příspěvků na blogu nebo finanční analýzy sdílím vše (aktuální návrhy, předchozí spisy, podrobné požadavky) a pak postupuji větu po větě.
Nechat agenta volně běžet vyžaduje definovat vše předem. Málokdy se mi to podaří, protože počáteční práce vyžaduje obrovskou jasnost - přesné cíle, komplexní informace a podrobné seznamy úkolů s ověřovacími kritérii - osnovu.
Tyto výzvy nakonec vypadají jako dokumenty s požadavky na produkt, které jsem napsal jako produktový manažer.
Odpověď na otázku "co očekávám?" bude snazší, protože systémy umělé inteligence budou mít přístup k více mým informacím a zlepší se při výběru relevantních dat. Jak se zlepšuji v artikulaci toho, co skutečně chci, spolupráce se zlepšuje.
Mým cílem je přesunout mnohem více mých otázek z levého horního segmentu - jak jsem byl trénován s vyhledáváním Google - do dalších tří kvadrantů.
Také očekávám, že mi tento zvyk pomůže lépe pracovat s lidmi.

3,06K
Tou malou černou skříňkou uprostřed je kód strojového učení.
Pamatuji si, jak jsem četl článek Google z roku 2015 Hidden Technical Debt in ML a přemýšlel jsem, jak málo je aplikace strojového učení skutečným strojovým učením.
Drtivou většinu tvořila infrastruktura, správa dat a provozní složitost.
S úsvitem umělé inteligence se zdálo, že tyto škatulky zahrnou velké jazykové modely. Příslib byl jednoduchý: vložte LLM a sledujte, jak zvládá vše od zákaznického servisu po generování kódu. Už žádné složité pipelines nebo křehké integrace.
Při vytváření interních aplikací jsme však podobnou dynamiku pozorovali i u AI.
Agenti potřebují spoustu kontextu, stejně jako člověk: jak je strukturováno CRM, co vstupujeme do jednotlivých polí - ale vstup je drahý model Hungry, Hungry AI.
Snížení nákladů znamená psaní deterministického softwaru, který nahradí uvažování o umělé inteligenci.
Například automatizace správy e-mailů znamená psaní nástrojů pro vytváření úloh v Asaně a aktualizaci CRM.
S nárůstem počtu nástrojů nad deset nebo patnáct nástrojů přestává volání nástrojů fungovat. Je čas spustit klasický model strojového učení pro výběr nástrojů.
Pak je tu sledování systému s pozorovatelností, hodnocení, zda je výkonný, a směrování ke správnému modelu. Kromě toho existuje celá kategorie softwaru, která se stará o to, aby umělá inteligence dělala to, co má.
Mantinely zabraňují nevhodným reakcím. Omezování rychlosti zabraňuje tomu, aby se náklady vymkly kontrole, když se systém pokazí.
Získávání informací (RAG - retrieval augmented generation) je nezbytné pro každý produkční systém. Ve své e-mailové aplikaci používám vektorovou databázi LanceDB, abych našel všechny e-maily od konkrétního odesílatele a přizpůsobil se jeho tónu.
Existují i další techniky pro správu znalostí kolem grafů RAG a specializovaných vektorových databází.
V poslední době se paměť stala mnohem důležitější. Rozhraní příkazového řádku pro nástroje AI ukládají historii konverzací jako soubory markdown.
Když publikuji grafy, chci titulek Theory Ventures vpravo dole, konkrétní písmo, barvy a styly. Ty jsou nyní všechny uloženy v souborech .gemini nebo .claude v řadě kaskádových adresářů.
Původní jednoduchost velkých jazykových modelů byla nahrazena složitostí produkce na podnikové úrovni.
To není totožné s předchozí generací systémů strojového učení, ale sleduje jasnou paralelu. To, co vypadalo jako jednoduchá "kouzelná skříňka umělé inteligence", se ukázalo být ledovcem, přičemž většina inženýrské práce byla skryta pod povrchem.


3,81K
Pokud je rok 2025 rokem agentů, pak rok 2026 bude jistě patřit manažerům agentů.
Manažeři agentů jsou lidé, kteří mohou řídit týmy AI agentů. Kolik jich může jeden člověk úspěšně zvládnout?
Stěží dokážu spravovat 4 AI agenty najednou. Žádají o vysvětlení, žádají o povolení, vyhledávají na webu – to vše vyžaduje mou pozornost. Někdy úkol trvá 30 sekund. Jindy 30 minut. Ztrácím přehled o tom, který agent co dělá, a polovina práce je zahozena, protože špatně interpretuje pokyny.
To není problém s dovednostmi. Je to problém s nástroji.
Fyzičtí roboti nabízejí vodítka o produktivitě manažerů robotů. MIT zveřejnil v roce 2020 analýzu, která naznačila, že průměrný robot nahradil 3,3 lidských pracovních míst. V roce 2024 Amazon uvedl, že pickpackoví a lodní roboti nahradili 24 pracovníků.
Je tu však zásadní rozdíl: umělá inteligence není deterministická. Agenti umělé inteligence interpretují pokyny. Improvizují. Občas pokyny zcela ignorují. Roomba může jen snít o tvůrčí svobodě ignorovat váš obývací pokoj a rozhodnout se, že garáž potřebuje pozornost.
Teorie řízení často vede týmy k rozpětí kontroly 7 lidí.
Když jsem mluvil s některými lepšími manažery agentů, dozvěděl jsem se, že používají schránku agentů, nástroj pro řízení projektů pro vyžádání práce s umělou inteligencí a její vyhodnocení. V softwarovém inženýrství k tomuto účelu slouží žádosti o stažení Githubu nebo Linear tickety.
Velmi produktivní softwaroví inženýři AI spravují 10-15 agentů tím, že detailně specifikují 10-15 úkolů, posílají je AI, čekají na dokončení a poté kontrolují práci. Polovina práce je zahozena a znovu spuštěna s vylepšenou výzvou.
Schránka agentů není populární - zatím. Není široce dostupná.
Ale mám podezření, že se to stane nezbytnou součástí produktivity budoucích manažerů agentů, protože je to jediný způsob, jak mít přehled o práci, která může kdykoli přijít.
Pokud je ARR na zaměstnance novou metrikou marnivosti pro startupy, pak se agenti spravovaní na osobu mohou stát metrikou marnivosti pracovníka.
Kolik agentů si myslíte, že byste za 12 měsíců zvládli? 10? 50? 100? Mohli byste řídit agenta, který spravuje jiné agenty?

8K
V posledním desetiletí byl největší položkou v rozpočtu každého startupu na výzkum a vývoj předvídatelný talent. Umělá inteligence se však prosazuje i do oblasti zisků a ztrát.
Kolik by měl startup utratit za umělou inteligenci jako procento svých výdajů na výzkum a vývoj?
10%? 30%? 60?
Je třeba vzít v úvahu tři faktory. Za prvé, průměrný plat softwarového inženýra v Silicon Valley. Druhým jsou celkové náklady na umělou inteligenci používanou daným inženýrem. Cursor je nyní za 200 $ měsíčně za svůj Ultra plán a recenze Devina naznačují 500 $ měsíčně. Za třetí, počet agentů, které může inženýr spravovat.
První průchod : (první obrázek)
Náklady na předplatné jsou ale pravděpodobně nízké. Během posledních několika dní jsem si intenzivně hrál s agenty pro kódování AI a během pěti dnů jsem nashromáždil účet ve výši 1 000 $! 😳😅
Pojďme tedy aktualizovat tabulku a předpokládejme dalších 1000 $ měsíčně na inženýra.
Takže pro typický startup by dnes mohlo být odhadem 10 až 15 % celkových výdajů na výzkum a vývoj použito na AI.
Varianty budou v praxi mnohem širší, protože se všichni naučíme AI lépe používat a proniká více do organizace. Menší společnosti, které jsou od počátku nativní pro umělou inteligenci, budou mít pravděpodobně výrazně vyšší poměry.
Pokud máte zájem zúčastnit se anonymního průzkumu, zveřejním výsledky, pokud bude vzorek dostatečně velký na to, aby byl výsledek statisticky významný.
Průzkum je zde:
Jedná se o hrubě zjednodušený model, kde pouze kontrolujeme platy, bez započtení benefitů, hardwaru, infrastruktury pro vývoj a testování atd.
Jedná se o odhad založený na diskontovaném kódování vibrací osobní zkušenosti.


2,12K
Top
Hodnocení
Oblíbené
Co je v trendu on-chain
Populární na X
Nejvyšší finanční vklady v poslední době
Nejpozoruhodnější