Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acabei de lançar 🤖 - um mapa de projetos de IA descentralizada ativos. Gostaria de ver este ecossistema crescer 10X!
A privacidade por si só não impulsiona a adoção. Precisamos igualar e superar a experiência do usuário da Big AI centralizada.
Conectores de fontes de dados e memória são as barreiras. Os custos de mudança de aplicativos de IA vão disparar nos próximos 2 anos.
Por quê? Melhores fontes de dados → aumento do uso → histórico mais rico → memória mais valiosa que se perde completamente ao mudar de fornecedores → barreiras mais altas.
É por isso que devemos agir rápido.
Hoje, no DeAI Summit em @UCBerkeley, apresentei a "Bartender Stack" para resolver isso, mantendo a mesma experiência do usuário para usuários e desenvolvedores:
Abstração de inferência: Os desenvolvedores devem simplesmente chamar uma função de inferência genérica, e o dispositivo do usuário decide a qual modelo direcioná-la, seja usando TEEs remotas ou inferência local. Atualmente, os desenvolvedores devem trazer seu próprio modelo para inferência local ou fornecer suas próprias TEEs que preservam a privacidade, o que é loucura - é por isso que eles recorrem a APIs de inferência centralizadas. O que estou propondo é, na verdade, o que já fazemos com computação geral: você apenas pede ao kernel para fazer os cálculos, abstraindo completamente processador, memória, etc. Isso permite que os desenvolvedores se concentrem no que torna seu aplicativo de IA distinto: interface e engenharia de prompt+contexto.
Memória entre aplicativos: Destrua a "barreira de memória" compartilhando automaticamente o contexto entre aplicativos, alcançando a mesma experiência do usuário da BigAI. O mesmo roteador local que abstrai a inferência "estende" o contexto. Novas startups que constroem aplicativos de IA locais se beneficiam de toda a sua memória desde o primeiro dia, em vez de serem penalizadas.
Carteiras de dados: Controle granular e local de ferramentas e compartilhamento de dados entre aplicativos. Configure uma vez, não por aplicativo. A memória é de propriedade dos usuários e compartilhada com aplicativos de IA, não de propriedade dos aplicativos de IA.
TEEs sem estado: Prompts e contextos são gerados localmente e compartilhados no momento da inferência. TEEs não armazenam dados, resolvendo o problema das chaves de UX das TEEs e suposições de confiança.
Reputação distribuída para Agentes: Redes de agentes precisam de pontos de entrada para acessar reputação sem permissão para decidir quais agentes confiar. Sem isso, as pessoas sempre recorrerão às Big AIs ou marcas famosas. Para os agentes, a confiança é a barreira.
Quero que as IAs sejam como bartenders! Locais. Substituíveis. Esquecíveis.
Eles ouvem quando preciso deles, desaparecem quando saio e nunca mantêm um registro do meu histórico de pedidos. Muito profissionais para lembrar o que disse depois do 🍹meu segundo drink!
Design completo e arquitetura aqui:
cc @BerkeleyRDI, 🦊@MetaMask

5,82K
Top
Classificação
Favoritos