Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Frank Downing
AI kommer til å transformere hvordan vi tenker på programvare og forme fremtiden for skyutgifter. Microsofts inntjeningssamtale i går kveld var et eksempel:
Med dagens vekstrater er Intelligent Cloud-segmentet (+25 % å/å) på vei til å bli større enn produktivitetsprogramvare (+14 % å/å) i løpet av de neste kvartalene.
Vi har nettopp publisert en blogg som dykker ned i hva som forårsaker dette skiftet og hvor det er på vei 👇
98,08K
Ja.
Jeg har hørt "nettlesere er den ultimate distribusjonen for agenter". Jeg tror dette er bakvendt.
Agenter vil bruke nettlesere som et verktøy, blant annet for å utføre oppgaver.
Du vil tenke på agenten som produktet, ikke nettleseren.
Du betaler for ChatGPT Agent, som spinner opp nettlesere for å utføre oppgaver etter behov. Du kan se og hoppe inn, men du trenger ikke.
Samme retning for Perplexitys komet. Den møter brukerne der de er i dag, men over tid vil agenten kjøre mer og mer og du vil bry deg mindre og mindre om å se hvordan pølsen lages.

qw22. juli 2025
websites replace most desktop applications (last 2 decades)
then agents replace most websites (next 2 decades)
32,82K
Gode data peker på viktigheten av "kontekstteknikk":
Inndatatokener kan være billigere enn utdatatokener, men konteksttunge oppgaver (som koding) kan kreve 300-400 ganger flere inndatatokener av kontekst enn utdatatokener, noe som gjør kontekst 98 % av de totale LLM-brukskostnadene.
Latens vokser også med større kontekststørrelse.
Understreker viktigheten av å gi riktig kontekst til rett tid når du bygger AI-applikasjoner, og jeg antar at det gir mye rom for konkurransedyktig differensiering i AI-navtive SaaS-apper.

Tomasz Tunguz9. juli 2025
When you query AI, it gathers relevant information to answer you.
But, how much information does the model need?
Conversations with practitioners revealed the their intuition : the input was ~20x larger than the output.
But my experiments with Gemini tool command line interface, which outputs detailed token statistics, revealed its much higher.
300x on average & up to 4000x.
Here’s why this high input-to-output ratio matters for anyone building with AI:
Cost Management is All About the Input. With API calls priced per token, a 300:1 ratio means costs are dictated by the context, not the answer. This pricing dynamic holds true across all major models.
On OpenAI’s pricing page, output tokens for GPT-4.1 are 4x as expensive as input tokens. But when the input is 300x more voluminous, the input costs are still 98% of the total bill.
Latency is a Function of Context Size. An important factor determining how long a user waits for an answer is the time it takes the model to process the input.
It Redefines the Engineering Challenge. This observation proves that the core challenge of building with LLMs isn’t just prompting. It’s context engineering.
The critical task is building efficient data retrieval & context - crafting pipelines that can find the best information and distilling it into the smallest possible token footprint.
Caching Becomes Mission-Critical. If 99% of tokens are in the input, building a robust caching layer for frequently retrieved documents or common query contexts moves from a “nice-to-have” to a core architectural requirement for building a cost-effective & scalable product.
For developers, this means focusing on input optimization is a critical lever for controlling costs, reducing latency, and ultimately, building a successful AI-powered product.




1,56K
To forsterkende svinghjul akselererer adopsjonen av AI IDE (integrert utviklingsmiljø):
1. Svinghjul for modellprodukt:
Etter hvert som grunnmodellene forbedres (resonnement, planlegging, verktøybruk), blir AI-IDE-er bygget på toppen av dem umiddelbart bedre, noe som fører til mer produktbruk. Etter hvert som AI-IDE-er blir store token-forbrukere, blir grunnmodellleverandører oppmuntret til å optimalisere for disse arbeidsflytene – noe som øker ytelsen ytterligere.
2. Svinghjul for brukerdata:
Etter hvert som AI IDE-er tiltrekker seg flere utviklere, genererer de proprietære bruksdata (hva utviklere spør, hvordan de koder, hvor de blir sittende fast). Disse dataene kan brukes til å trene spesialiserte modeller som er finjustert for selve IDE – noe som fører til bedre brukeropplevelse og ytelse, og en dypere vollgrav.
#1 fordeler kategorien. #2 er til fordel for kategorilederen.
26,26K
Det er morsomt for meg at Claude gjør en bedre jobb med å svare på spørsmål om Gmail enn Googles Gemini gjør.
Siste versjoner av Gemini knuser den på benchmarks og har hørt annektodaly at de er gode til å kode, men bruk av Gemini-appen i den virkelige verden har aldri matchet meg i forhold til ChatGPT, Claude eller Grok
224,64K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til