Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ok, leia @Extropic_AI (@BasedBeffJezos) que consegui pesquisar durante minha sessão de treino. 
TLDR: A inferência padrão envolve fazer um monte de cálculos de matriz sequencial e paralela, mas, em última análise, tudo se resume à amostragem probabilística. A Extropic está construindo um chip que ignora todo esse maquinário matemático e, em vez disso, simplesmente incorpora a distribuição de probabilidade aprendida do conjunto de treinamento subjacente e amostras diretamente do hardware. 
Isso é muito legal!
No nível mais fundamental, os LLMs pegam um conjunto de treinamento gigante, composto de tokens, e aprendem a estrutura entre palavras, frases, etc. Eles não estão raciocinando, mas estão - na verdade - aprendendo a distribuição de probabilidade extremamente complexa entre os tokens. 
Por exemplo, se eu perguntar "Qual é a cor do céu", ele procurará naquele PD aprendido e verá ["O", "cor", "de", "o", "céu", "é", "azul"] como a sequência de maior probabilidade. Chegou a isso fazendo um monte de cálculos de matrizes. Se você quiser aprender a mecânica disso, pode ir em frente e ler o artigo original do Transformer, mas honestamente não é tão importante. 
O que é importante é o seguinte: 
1. Etapa de treinamento: insira um grande conjunto de dados --> distribuição de probabilidade de saída de tokens. 
2. Etapa de inferência: consulta de entrada --> mapeamento de saída sob amostragem probabilística. 
A propósito, o resultado muito legal (embora um tanto óbvio) em retrospectiva é que ... Os LLMs são injetivos e invertíveis! Isso significa que há um mapeamento exclusivo do prompt para o espaço latente e vice-versa. Muito legal!

Enfim, muito legal trabalho equipe Extropic! 
A propósito, dia de perna hoje e foi glorioso.

38,12K
Melhores
Classificação
Favoritos

