Offenbar wird unser x402 API-Endpunkt bereits verfolgt auf . Der Endpunkt basiert tatsächlich auf LLM, ist aber noch kein AI-Agent. Wir möchten sicherstellen, dass wir die zugrunde liegende Inferenzinfrastruktur für unser Ökosystem haben, in dem wir unser eigenes LLM auf unseren Servern hosten, anstatt uns auf Drittanbieter-APIs zu verlassen. Als Nächstes planen wir, spezialisierte AI-Agenten dafür zu entwickeln, wie einen Programmieragenten oder einen Agenten für den Vorhersagemarkt.