Mișcarea AI descentralizată este în creștere!
Marco De Rossi
Marco De Rossi4 aug. 2025
Tocmai am lansat 🤖 - o hartă a proiectelor AI descentralizate active. Mi-ar plăcea să văd acest ecosistem crescând de 10 ori! Confidențialitatea în sine nu conduce la adoptare. Trebuie să egalăm și să depășim UX-ul centralizat al Big AI. Conectorii sursei de date și memoria sunt șanțurile. Costurile de schimbare a aplicațiilor AI vor crește vertiginos în următorii 2 ani. De ce? Surse de date mai bune → utilizare sporită → istoric mai bogat → memorie mai valoroasă care se pierde complet atunci când schimbați furnizorii → șanțuri mai înalte. De aceea trebuie să acționăm rapid. Astăzi, la DeAI Summit din @UCBerkeley am prezentat "Bartender Stack" pentru a rezolva acest lucru, păstrând în același timp același UX pentru utilizatori și dezvoltatori: Abstractizarea inferenței: Dezvoltatorii ar trebui pur și simplu să apeleze o funcție de inferență generică, iar dispozitivul utilizatorului decide către ce model să o direcționeze, indiferent dacă utilizează TEE-uri la distanță sau inferență locală. În prezent, dezvoltatorii trebuie să-și aducă propriul model pentru inferență locală sau să furnizeze propriile TEE-uri care păstrează confidențialitatea. ceea ce este o nebunie - motiv pentru care folosesc implicit API-uri de inferență centralizate. Ceea ce propun este de fapt ceea ce facem deja cu calculul general: trebuie doar să ceri nucleului să facă calculele, abstractizând complet procesorul, memoria etc. Acest lucru le permite dezvoltatorilor să se concentreze pe ceea ce face ca aplicația lor AI să fie distinctivă: interfața și promptul+ingineria contextului. Memorie între aplicații: Distrugeți "șanțul de memorie" prin partajarea automată a contextului între aplicații, obținând aceeași experiență de utilizare a BigAI. Același router local care abstractizează inferența "extinde" contextul, noile startup-uri care construiesc aplicații AI locale beneficiază de toată memoria ta din prima zi în loc să fie penalizate. Portofele de date: control granular și local al instrumentelor și partajarea datelor între aplicații. Configurați o dată, nu pentru fiecare aplicație. Memoria este deținută de utilizatori și partajată cu aplicațiile AI, nu deținută de aplicațiile AI. TEE-uri fără stat: solicitările și contextele sunt generate local și partajate în momentul inferenței. TEE-urile nu stochează date, rezolvând problema cheilor UX ale TEE-urilor și ipotezele de încredere. Reputație distribuită pentru agenți: Rețelele de agenți au nevoie de puncte de intrare pentru a accesa reputația fără permisiune pentru a decide în care agenți să aibă încredere. Fără aceasta, oamenii vor folosi întotdeauna inteligența artificială mare sau mărcile celebre. Pentru agenți, încrederea este șanțul. Vreau ca AI-urile să fie ca barmanii! Local. Înlocuibil. Uituc. Ascultă când am nevoie de ele, dispar când plec și nu țin niciodată o evidență a istoricului comenzilor mele. Prea profesionist să-mi amintesc ce am spus după 🍹a doua băutură! Design complet de punte și arhitectură aici: cc @BerkeleyRDI, 🦊 @MetaMask
515