Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Spencer Farrar
Partner @theoryvc | tidligere opsjonshandel, HF og @ucberkeley.
Vil anbefale å søke om å jobbe med @jmj og @seidtweets! De er utrolige mennesker og investorer!

Jeff Morris Jr.29. juli, 23:41
🚨 Drømmejobbvarsel: Vi ansetter en investeringspartner ved Chapter One i San Francisco, og det har aldri vært et bedre øyeblikk.
SF er ground zero for AI, og vi er i det med et nytt fond som er klart til å distribueres.
Dette er rollen jeg skulle ønske eksisterte da jeg kom opp: ekte eierskap, lede avtaler og jobbe med et tett, produktbesatt team.
Hvis du har ventet på å ta en større sving, er dette ditt skudd.

3,64K
Gratulerer til Lance-teamet! Gleder meg til å jobbe med dere!

LanceDB24. juni 2025
Today we’re announcing our $30 million Series A.
This round is led by @Theoryvc with support from @CRV , @ycombinator, @databricks, @runwayml , @ZeroPrimeVC , @swift_vc, and more. Your belief in a future powered by multimodal data brings us one step closer to that reality.

4,49K
Spencer Farrar lagt ut på nytt
TL; DR: Vi bygde en transformatorbasert betalingsgrunnlagsmodell. Det fungerer.
I årevis har Stripe brukt maskinlæringsmodeller trent på diskrete funksjoner (BIN, zip, betalingsmetode osv.) for å forbedre produktene våre for brukerne. Og denne innsatsen funksjon for funksjon har fungert bra: +15 % konvertering, -30 % svindel.
Men disse modellene har begrensninger. Vi må velge (og derfor begrense) funksjonene som vurderes av modellen. Og hver modell krever oppgavespesifikk opplæring: for autorisasjon, for svindel, for tvister og så videre.
Gitt læringskraften til generaliserte transformatorarkitekturer, lurte vi på om en tilnærming i LLM-stil kunne fungere her. Det var ikke åpenbart at det ville det – betalinger er som språk på noen måter (strukturelle mønstre som ligner på syntaks og semantikk, tidsmessig sekvensielt) og ekstremt ulikt språk i andre (færre distinkte 'tokens', kontekstuell sparsomhet, færre organiseringsprinsipper beslektet med grammatiske regler).
Så vi bygde en betalingsgrunnlagsmodell – et selvovervåket nettverk som lærer tette, generelle vektorer for hver transaksjon, omtrent som en språkmodell bygger inn ord. Den er trent på titalls milliarder transaksjoner, og destillerer hver ladnings nøkkelsignaler til en enkelt, allsidig innebygging.
Du kan tenke på resultatet som en enorm fordeling av betalinger i et høydimensjonalt vektorrom. Plasseringen av hver innebygging fanger opp rike data, inkludert hvordan ulike elementer er relatert til hverandre. Betalinger som deler likheter, klynger seg naturlig sammen: transaksjoner fra samme kortutsteder er plassert nærmere hverandre, de fra samme bank enda nærmere, og de som deler samme e-postadresse er nesten identiske.
Disse rike innbyggingene gjør det betydelig lettere å oppdage nyanserte, kontradiktoriske mønstre av transaksjoner; og for å bygge mer nøyaktige klassifiserere basert på både funksjonene til en individuell betaling og dens forhold til andre betalinger i sekvensen.
Ta korttesting. I løpet av de siste par årene har tradisjonelle ML-tilnærminger (utvikling av nye funksjoner, merking av nye angrepsmønstre, rask omskolering av modellene våre) redusert korttesting for brukere på Stripe med 80 %. Men de mest sofistikerte korttesterne skjuler nye angrepsmønstre i volumene til de største selskapene, så de er vanskelige å få øye på med disse metodene.
Vi bygde en klassifiserer som inntar sekvenser av innebygginger fra grunnmodellen, og forutsier om trafikkstykket er under et angrep. Den utnytter transformatorarkitektur for å oppdage subtile mønstre på tvers av transaksjonssekvenser. Og det gjør alt dette i sanntid, slik at vi kan blokkere angrep før de rammer bedrifter.
Denne tilnærmingen forbedret deteksjonsraten vår for korttestingsangrep på store brukere fra 59 % til 97 % over natten.
Dette har en umiddelbar innvirkning på våre store brukere. Men den virkelige kraften til grunnlagsmodellen er at de samme innebyggingene kan brukes på tvers av andre oppgaver, som tvister eller autorisasjoner.
Kanskje enda mer fundamentalt, antyder det at betalinger har semantisk betydning. Akkurat som ord i en setning, har transaksjoner komplekse sekvensielle avhengigheter og latente funksjonsinteraksjoner som rett og slett ikke kan fanges opp av manuell funksjonsteknikk.
Det viste seg at oppmerksomheten var alle betalinger som trengtes!
1,22M
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til