Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nils Pihl (broodsugar.eth)
Engenheiro memético e transhumanista cibernético. Construindo a @AukiNetwork com @AukiLabs, transformando o varejo com @CactusXR
Provavelmente não és fixe o suficiente para trabalhar com @danmonaghanz, para ser sincero.

Dan MonaghanHá 6 horas
Do ArC, o simulador de câmera de cinema para iPhone que lidero há alguns anos, à digitalização de nuvens de pontos em tempo real, splats gaussianos, aqui está meu trabalho mais recente em AR e protótipos. Sempre aberto a projetos que impulsionam AR e filmmaking. #ARKit #ios #VirtualProduction #fotogrametria
341
Nils Pihl (broodsugar.eth) republicou
Quem vai ganhar a corrida da IA? 🧠
A Stargate/OpenAI vai gastar $500B em computação. Elon Musk está gastando $1B.
Ele é pobre ou estúpido? Ou ele percebe que a IA precisa de sensores e dados mais do que precisa de GPUs?
Quem quer que torne o mundo real acessível à IA ganhará a corrida da IA. Se conseguirmos acertar, isso pode ser DePIN e @Intercognitive em vez de Elon Musk ou qualquer um dos grandes players centralizados.
1,31K
Nils Pihl (broodsugar.eth) republicou
Do ArC, o simulador de câmera de cinema para iPhone que lidero há alguns anos, à digitalização de nuvens de pontos em tempo real, splats gaussianos, aqui está meu trabalho mais recente em AR e protótipos. Sempre aberto a projetos que impulsionam AR e filmmaking. #ARKit #ios #VirtualProduction #fotogrametria
538
A percepção compartilhada e o senso de espaço é o que irá resolver isso.

Massimo19/08, 08:00
Dois robôs Amazon igualmente inteligentes
1,17K
Nils Pihl (broodsugar.eth) republicou
Visão épica para posicionamento espacial, se você é um desenvolvedor de Realidade Aumentada, assista a isso, DUAS VEZES. Não é muito técnico, é sobre a visão de como nossos aplicativos *deveriam funcionar. Nada de começar o usuário do zero, todos os ativos 3D permanecem onde foram deixados por último, fundindo-os ao espaço físico.
727
Nils Pihl (broodsugar.eth) republicou
𝗘𝘀𝘁𝗼𝘂 𝗵𝗲𝗮𝗿𝗱𝗼 𝗶𝘀𝘀𝗼 𝗺𝗮𝗶𝘀 𝗿𝗲𝗰𝗲𝗻𝘁𝗲𝗺𝗲𝗻𝘁𝗲: "𝗡𝗼𝘀 𝗳𝗼𝗺𝗼𝘀 𝗮𝗻𝗮𝗹𝗶𝘀𝗮𝗿 𝗼 𝗻𝗼𝘀𝘀𝗼 𝗿𝗼𝗯𝗼𝘁 𝗲𝗺 𝘂𝗺 𝗼𝗯𝗷𝗲𝗰𝘁𝗼 𝗲 𝗲𝗹𝗲 𝗴𝗲𝗻𝗲𝗿𝗮𝗹𝗶𝘇𝗼𝘂 𝗽𝗮𝗿𝗮 𝘂𝗺 𝗻𝗼𝘃𝗼 𝗼𝗯𝗷𝗲𝗰𝘁𝗼 - 𝗲𝘀𝘁𝗮𝘀 𝗻𝗲𝘄𝗮𝘀 𝗺𝗼𝗱𝗲𝗹𝗮𝘀 𝗩𝗟𝗔 𝗲𝗿𝗮𝗺 𝗰𝗿𝗮𝘇𝘆!"
𝗩𝗮𝗺𝗼𝘀 𝗽𝗮𝗿𝗹𝗮𝗿 𝘀𝗼𝗯𝗿𝗲 𝗼 𝗾𝘂𝗲 𝗲𝘀𝘁𝗮 𝗮𝗰𝘁𝘂𝗮𝗻𝗱𝗼 𝗻𝗮 𝗽𝗮𝗿𝘁𝗲 "𝗔" (𝗔𝗰̧𝗮𝗼) 𝗱𝗼 𝗺𝗼𝗱𝗲𝗹𝗼 𝗩𝗟𝗔.
Os componentes de Visão e Linguagem? Eles são incríveis. Pré-treinados em dados em escala de internet, eles entendem objetos, relações espaciais e instruções de tarefas melhor do que nunca.
Mas o componente Ação? Esse ainda é aprendido do zero com as suas demonstrações específicas de robô.
𝗘𝗶𝗰𝗵𝗼 𝗮 𝗿𝗲𝗮𝗹𝗶𝗱𝗮𝗱𝗲: O seu modelo VLA tem uma compreensão em escala de internet de como é uma chave de fenda e o que "apertar o parafuso" significa. Mas o padrão motor real para "girar o pulso enquanto aplica pressão para baixo"? Isso vem das suas 500 demonstrações de robô.
𝗢 𝗾𝘂𝗲 𝗲𝘀𝘁𝗼 𝗺𝗲𝗮𝗻𝘀 𝗽𝗮𝗿𝗮 "𝗴𝗲𝗻𝗲𝗿𝗮𝗹𝗶𝘇𝗮𝗰̧𝗮𝗼":
• 𝗚𝗲𝗻𝗲𝗿𝗮𝗹𝗶𝘇𝗮𝗰̧𝗮𝗼 𝗱𝗲 𝗩𝗶𝘀𝗮̃𝗼: Reconhece objetos novos instantaneamente (graças ao pré-treinamento)
• 𝗚𝗲𝗻𝗲𝗿𝗮𝗹𝗶𝘇𝗮𝗰̧𝗮𝗼 𝗱𝗲 𝗟𝗶𝗻𝗴𝘂𝗮𝗴𝗲: Entende novas instruções de tarefas (graças ao pré-treinamento)
• 𝗚𝗲𝗻𝗲𝗿𝗮𝗹𝗶𝘇𝗮𝗰̧𝗮𝗼 𝗱𝗲 𝗔𝗰̧𝗮𝗼: Ainda limitado a padrões motores vistos durante o treinamento do robô
Peça a esse mesmo robô para "desaparafusar a tampa da garrafa" e ele falha porque:
• Visão: Reconhece a garrafa e a tampa
• Linguagem: Entende "desaparafusar"
• Ação: Nunca aprendeu o padrão motor "girar enquanto puxa"
𝗔 𝗳𝗮𝗹𝗮 𝗱𝗶𝗳𝗶𝗰𝗶𝗹 𝘀𝗼𝗯𝗿𝗲 𝗺𝗼𝗱𝗲𝗹𝗼𝘀 𝗩𝗟𝗔:
O "VL" oferece uma compreensão incrível sem exemplos. O "A" ainda requer demonstrações específicas da tarefa.
Resolvemos o problema de percepção e raciocínio. Não resolvemos o problema de generalização motora.
42,83K
Nils Pihl (broodsugar.eth) republicou
Estamos a construir uma nova internet para robótica e XR, para tornar o mundo físico acessível à IA.
No vídeo deste ano sobre o Estado da Rede Auki, destacamos algumas das coisas incríveis que já estão a ser construídas na rede de percepção de máquinas descentralizada:
9,21K
Nils Pihl (broodsugar.eth) republicou
Em 2009, Charlie Rose perguntou a Jensen Huang sobre Nvidia vs. Intel.
Os fabricantes de chips não estavam competindo diretamente, mas Jensen disse que GPU vs. CPU era uma "batalha pela alma" da computação e que as GPUs seriam "mais relevantes" com o tempo.
A Intel valia $100B e a Nvidia estava em $4B. Hoje, a Intel está em $107B, enquanto a Nvidia vale cerca de 1.000 vezes mais, a $4,4 trilhões.
308,87K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável