Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Spencer Farrar
Partner @theoryvc |
Kann ich nur empfehlen, sich bei @jmj & @seidtweets zu bewerben! Sie sind unglaubliche Menschen und Investoren!

Jeff Morris Jr.29. Juli 2025
🚨 Traumjob-Alarm: Wir stellen einen Investment Partner bei Chapter One in San Francisco ein und es gab nie einen besseren Moment.
SF ist der Ausgangspunkt für KI, und wir sind mit einem frischen Fonds dabei, der bereit ist, investiert zu werden.
Das ist die Rolle, die ich mir gewünscht hätte, als ich anfing: echte Verantwortung, Deals leiten und mit einem kleinen, produktbesessenen Team arbeiten.
Wenn du darauf gewartet hast, einen größeren Schritt zu wagen, ist dies deine Chance.

4,05K
Die Memes heute sind auf einem ganz neuen Level.

🦋/acc @ 🌲1. Juli 2025
Wir können Noah Shazeer nicht für 1 Milliarde kaufen, aber wir können ihn im Aggregat erschaffen.

1,07K
Herzlichen Glückwunsch an das Lance-Team! Ich freue mich, mit euch zu arbeiten!

LanceDB24. Juni 2025
Heute geben wir unsere 30 Millionen Dollar Series A bekannt.
Diese Runde wird von @Theoryvc geleitet, mit Unterstützung von @CRV, @ycombinator, @databricks, @runwayml, @ZeroPrimeVC, @swift_vc und weiteren. Ihr Glaube an eine Zukunft, die von multimodalen Daten angetrieben wird, bringt uns einen Schritt näher zu dieser Realität.

4,56K
Spencer Farrar erneut gepostet
TL; DR: Wir haben ein Transformer-basiertes Payment-Foundation-Modell entwickelt. Es funktioniert.
Seit Jahren verwendet Stripe Modelle für maschinelles Lernen, die auf diskrete Merkmale (BIN, Postleitzahl, Zahlungsmethode usw.) trainiert wurden. um unsere Produkte für die Nutzer zu verbessern. Und diese Feature-by-Feature-Bemühungen haben gut funktioniert: +15 % Conversion, -30 % Betrug.
Aber diese Modelle haben Grenzen. Wir müssen die vom Modell berücksichtigten Merkmale auswählen (und daher einschränken). Und jedes Modell erfordert aufgabenspezifische Schulungen: für Autorisierung, für Betrug, für Streitigkeiten und so weiter.
Angesichts der Lernkraft verallgemeinerter Transformatorarchitekturen haben wir uns gefragt, ob ein LLM-ähnlicher Ansatz hier funktionieren könnte. Es war nicht offensichtlich, dass dies der Fall sein würde – Zahlungen sind in gewisser Weise wie Sprache (strukturelle Muster ähnlich wie Syntax und Semantik, zeitlich sequenziell) und in anderen Fällen völlig anders als Sprache (weniger unterschiedliche "Token", kontextuelle Sparsamkeit, weniger Organisationsprinzipien, die grammatikalischen Regeln ähneln).
Also haben wir ein Zahlungsgrundlagemodell entwickelt – ein selbstüberwachtes Netzwerk, das für jede Transaktion dichte, universelle Vektoren lernt, ähnlich wie ein Sprachmodell Wörter einbettet. Es wurde mit Dutzenden von Milliarden von Transaktionen trainiert und destilliert die Schlüsselsignale jeder Ladung in einer einzigen, vielseitigen Einbettung.
Sie können sich das Ergebnis als eine riesige Verteilung von Zahlungen in einem hochdimensionalen Vektorraum vorstellen. An der Position jeder Einbettung werden umfangreiche Daten erfasst, einschließlich der Beziehung der verschiedenen Elemente zueinander. Zahlungen, die Ähnlichkeiten aufweisen, häufen sich natürlich: Transaktionen vom selben Kartenaussteller liegen näher beieinander, die von derselben Bank noch näher und die Transaktionen mit derselben E-Mail-Adresse sind nahezu identisch.
Diese reichhaltigen Einbettungen machen es erheblich einfacher, nuancierte, kontradiktorische Muster von Transaktionen zu erkennen. und genauere Klassifikatoren zu erstellen, die sowohl auf den Merkmalen einer einzelnen Zahlung als auch auf ihrer Beziehung zu anderen Zahlungen in der Sequenz basieren.
Nehmen Sie den Kartentest. In den letzten Jahren haben traditionelle ML-Ansätze (Entwicklung neuer Funktionen, Kennzeichnung neuer Angriffsmuster, schnelles Neutrainieren unserer Modelle) das Testen von Karten für Benutzer auf Stripe um 80 % reduziert. Aber die raffiniertesten Kartentester verstecken neuartige Angriffsmuster in den Volumina der größten Unternehmen, so dass sie mit diesen Methoden schwer zu erkennen sind.
Wir haben einen Klassifikator erstellt, der Sequenzen von Einbettungen aus dem Basismodell aufnimmt und vorhersagt, ob der Traffic-Slice angegriffen wird. Es nutzt die Transformer-Architektur, um subtile Muster über Transaktionssequenzen hinweg zu erkennen. Und das alles in Echtzeit, so dass wir Angriffe abwehren können, bevor sie Unternehmen treffen.
Dieser Ansatz verbesserte unsere Erkennungsrate für Card-Test-Angriffe auf große Benutzer über Nacht von 59 % auf 97 %.
Dies hat unmittelbare Auswirkungen auf unsere Großnutzer. Die wahre Stärke des Foundation-Modells besteht jedoch darin, dass dieselben Einbettungen auf andere Aufgaben angewendet werden können, z. B. auf Streitigkeiten oder Berechtigungen.
Vielleicht noch grundlegender ist, dass es darauf hindeutet, dass Zahlungen eine semantische Bedeutung haben. Genau wie Wörter in einem Satz besitzen Transaktionen komplexe sequenzielle Abhängigkeiten und latente Merkmalsinteraktionen, die durch manuelles Feature-Engineering einfach nicht erfasst werden können.
Es stellte sich heraus, dass alle Zahlungen erforderlich waren!
1,22M
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten