Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Pesquisador de IA @meta Superintelligence Labs, passado: OpenAI, Google 🧠
Jason Wei repostou
📣 Animado para compartilhar nosso estudo do mundo real de um copiloto clínico LLM, uma colaboração entre @OpenAI e @PendaHealth.
Em 39.849 visitas de pacientes ao vivo, os médicos com IA tiveram uma redução relativa de 16% nos erros de diagnóstico e uma redução de 13% nos erros de tratamento em comparação com aqueles sem. 🧵
405,51K
Jason Wei repostou
Esta é a minha palestra de 2 meses atrás na @Cornell
"Como faço para aumentar minha produção?" Uma resposta natural é "Vou trabalhar mais algumas horas". Trabalhar mais pode ajudar, mas eventualmente você atinge um limite físico.
Uma pergunta melhor é: "Como faço para aumentar minha produção sem aumentar tanto a entrada?" Isso é alavancagem.
Ouvimos "alavancagem" com tanta frequência que sua implicação é fácil de ignorar. Minha categorização favorita de alavancagem é de Naval Ravikant: trabalho humano, capital e código / mídia. Cada um impulsionou grandes ondas de criação de riqueza na história.
No entanto, uma vez que uma fonte de alavancagem se torna popular (pense nos canais do YouTube hoje versus dez anos atrás), a concorrência comprime a margem. Portanto, quando uma nova alavancagem aparece, é uma rara chance de ganhos descomunais.
Nesta palestra, descrevo a IA como essa alavancagem emergente. Um agente de IA combina alavancagem de mão de obra (ele funciona para você e não tem permissão) com alavancagem de código (você pode copiá-lo e colá-lo).
É clichê dizer que a IA criará uma riqueza enorme. Mas usar essa lente de alavancagem nos permite interpretar o ciclo de notícias barulhento da IA de maneira consistente e identificar as oportunidades reais.
Obrigado @unsojo por me receber!
402,58K
Nova postagem no blog sobre assimetria de verificação e "lei do verificador":
A assimetria de verificação – a ideia de que algumas tarefas são muito mais fáceis de verificar do que resolver – está se tornando uma ideia importante, pois temos RL que finalmente funciona em geral.
Grandes exemplos de assimetria de verificação são coisas como quebra-cabeças de sudoku, escrever o código para um site como o instagram e problemas de BrowseComp (leva ~ 100 sites para encontrar a resposta, mas fácil de verificar quando você tiver a resposta).
Outras tarefas têm quase simetria de verificação, como somar dois números de 900 dígitos ou alguns scripts de processamento de dados. No entanto, outras tarefas são muito mais fáceis de propor soluções viáveis do que verificá-las (por exemplo, verificar os fatos de um longo ensaio ou declarar uma nova dieta como "só coma bisões").
Uma coisa importante a entender sobre a assimetria de verificação é que você pode melhorar a assimetria fazendo algum trabalho com antecedência. Por exemplo, se você tiver a chave de resposta para um problema de matemática ou se tiver casos de teste para um problema do Leetcode. Isso aumenta muito o conjunto de problemas com a assimetria de verificação desejável.
A "lei do verificador" afirma que a facilidade de treinar a IA para resolver uma tarefa é proporcional à verificabilidade da tarefa. Todas as tarefas possíveis de resolver e fáceis de verificar serão resolvidas pela IA. A capacidade de treinar a IA para resolver uma tarefa é proporcional ao fato de a tarefa ter as seguintes propriedades:
1. Verdade objetiva: todos concordam com o que são boas soluções
2. Rápido de verificar: qualquer solução pode ser verificada em poucos segundos
3. Escalável para verificar: muitas soluções podem ser verificadas simultaneamente
4. Baixo ruído: a verificação está o mais fortemente correlacionada possível com a qualidade da solução
5. Recompensa contínua: é fácil classificar a bondade de muitas soluções para um único problema
Uma instância óbvia da lei do verificador é o fato de que a maioria dos benchmarks propostos na IA são fáceis de verificar e até agora foram resolvidos. Observe que praticamente todos os benchmarks populares nos últimos dez anos se encaixam nos critérios #1-4; Os benchmarks que não atendem aos critérios # 1-4 teriam dificuldade em se tornar populares.
Por que a verificabilidade é tão importante? A quantidade de aprendizado em IA que ocorre é maximizada quando os critérios acima são satisfeitos; Você pode dar muitas etapas de gradiente, onde cada etapa tem muito sinal. A velocidade da iteração é crítica - é a razão pela qual o progresso no mundo digital tem sido muito mais rápido do que o progresso no mundo físico.
O AlphaEvolve do Google é um dos maiores exemplos de como alavancar a assimetria de verificação. Ele se concentra em configurações que atendem a todos os critérios acima e levou a uma série de avanços na matemática e em outros campos. Diferente do que temos feito em IA nas últimas duas décadas, é um novo paradigma em que todos os problemas são otimizados em um ambiente em que o conjunto de trens é equivalente ao conjunto de testes.
A assimetria de verificação está em toda parte e é emocionante considerar um mundo de inteligência irregular onde qualquer coisa que possamos medir será resolvida.

299,22K
banger direto, eu li imediatamente

Kevin Lu10 de jul. de 2025
Why you should stop working on RL research and instead work on product //
The technology that unlocked the big scaling shift in AI is the internet, not transformers
I think it's well known that data is the most important thing in AI, and also that researchers choose not to work on it anyway. ... What does it mean to work on data (in a scalable way)?
The internet provided a rich source of abundant data, that was diverse, provided a natural curriculum, represented the competencies people actually care about, and was an economically viable technology to deploy at scale -- it became the perfect complement to next-token prediction and was the primordial soup for AI to take off.
Without transformers, any number of approaches could have taken off, we could probably have CNNs or state space models at the level of GPT-4.5. But there hasn't been a dramatic improvement in base models since GPT-4. Reasoning models are great in narrow domains, but not as huge of a leap as GPT-4 was in March 2023 (over 2 years ago...)
We have something great with reinforcement learning, but my deep fear is that we will repeat the mistakes of the past (2015-2020 era RL) and do RL research that doesn't matter.
In the way the internet was the dual of supervised pretraining, what will be the dual of RL that will lead to a massive advancement like GPT-1 -> GPT-4? I think it looks like research-product co-design.

18,95K
Conselho de namoro para pessoas normais: não se case cedo se você está crescendo e mudando muito a cada ano
Amigo de IA (@YiTayML): Você é como uma rede neural no meio do treinamento e a perda ainda está melhorando. Melhor treinar para a convergência em vez de tirar um instantâneo inicial do ponto de verificação
186,14K
Ainda não temos auto-aperfeiçoamentos de IA e, quando o fizermos, será um divisor de águas. Com mais sabedoria agora em comparação com os dias GPT-4, é óbvio que não será uma "decolagem rápida", mas sim extremamente gradual ao longo de muitos anos, provavelmente uma década.
A primeira coisa a saber é que o autoaperfeiçoamento, ou seja, os modelos que se treinam, não é binário. Considere o cenário de treinamento GPT-5 GPT-6, que seria incrível. O GPT-5 de repente deixaria de ser capaz de treinar o GPT-6 para treiná-lo com extrema proficiência? Definitivamente não. As primeiras execuções de treinamento GPT-6 provavelmente seriam extremamente ineficientes em tempo e computação em comparação com pesquisadores humanos. E somente depois de muitos testes, o GPT-5 realmente seria capaz de treinar o GPT-6 melhor do que os humanos.
Em segundo lugar, mesmo que um modelo pudesse se treinar, ele não melhoraria repentinamente em todos os domínios. Há um gradiente de dificuldade em quão difícil é melhorar a si mesmo em vários domínios. Por exemplo, talvez o autoaperfeiçoamento só funcione no início em domínios que já sabemos como corrigir facilmente no pós-treinamento, como alucinações básicas ou estilo. Em seguida, viria matemática e codificação, que dá mais trabalho, mas estabeleceu métodos para melhorar os modelos. E então, no extremo, você pode imaginar que existem algumas tarefas que são muito difíceis para o autoaperfeiçoamento. Por exemplo, a capacidade de falar Tlingit, uma língua nativa americana falada por ~ 500 pessoas. Será muito difícil para o modelo se auto-aperfeiçoar ao falar Tlingit, pois ainda não temos maneiras de resolver idiomas com poucos recursos como esse, exceto coletar mais dados, o que levaria tempo. Portanto, por causa do gradiente de dificuldade de autoaperfeiçoamento, nem tudo acontecerá de uma vez.
Finalmente, talvez isso seja controverso, mas, em última análise, o progresso na ciência é prejudicado por experimentos do mundo real. Alguns podem acreditar que ler todos os artigos de biologia nos diria a cura para o câncer, ou que ler todos os artigos de ML e dominar toda a matemática permitiria que você treinasse o GPT-10 perfeitamente. Se fosse esse o caso, as pessoas que leem mais artigos e estudam mais teoria seriam os melhores pesquisadores de IA. Mas o que realmente aconteceu é que a IA (e muitos outros campos) passou a ser dominada por pesquisadores impiedosamente empíricos, o que reflete quanto progresso é baseado em experimentos do mundo real, e não em inteligência bruta. Portanto, meu ponto é que, embora um agente superinteligente possa projetar experimentos 2x ou até 5x melhores do que nossos melhores pesquisadores humanos, no final do dia eles ainda precisam esperar que os experimentos sejam executados, o que seria uma aceleração, mas não uma decolagem rápida.
Em resumo, existem muitos gargalos para o progresso, não apenas inteligência bruta ou um sistema de autoaperfeiçoamento. A IA resolverá muitos domínios, mas cada domínio tem sua própria taxa de progresso. E mesmo a mais alta inteligência ainda exigirá experimentos no mundo real. Portanto, será uma aceleração e não uma decolagem rápida, obrigado por ler meu discurso retórico
340,25K
A coisa mais gratificante de trabalhar no escritório à noite e nos fins de semana não é o trabalho real que você faz, mas as conversas espontâneas com outras pessoas que estão sempre trabalhando. Eles são as pessoas que tendem a fazer grandes coisas e se tornarão seus amigos mais bem-sucedidos
74,85K
Eu diria que estamos, sem dúvida, na AGI quando a IA pode criar um unicórnio real e vivo. E não, não me refiro a uma empresa de US $ 1 bilhão, nerds, quero dizer um cavalo rosa literal com um chifre em espiral. Um modelo de avanço científico em engenharia genética e programação celular. O material dos sonhos de infância. Ouso dizer que isso acontecerá em nossas vidas
84,62K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável