Apresentando "Construindo com Lhama 4". Este minicurso foi criado com @Meta @AIatMeta e ministrado por @asangani7, Diretor de Engenharia de Parceiros da equipe de IA da Meta. O novo Llama 4 da Meta adicionou três novos modelos e introduziu a arquitetura Mix-of-Experts (MoE) à sua família de modelos de peso aberto, tornando-os mais eficientes para servir. Neste curso, você trabalhará com dois dos três novos modelos introduzidos no Llama 4. O primeiro é o Maverick, um modelo de parâmetro 400B, com 128 especialistas e parâmetros ativos 17B. O segundo é o Scout, um modelo de parâmetro 109B com 16 especialistas e parâmetros ativos 17B. Maverick e Scout suportam longas janelas de contexto de até um milhão de tokens e 10 milhões de tokens, respectivamente. O último é suficiente para suportar a entrada direta até mesmo de repositórios GitHub razoavelmente grandes para análise! Nas aulas práticas, você criará aplicativos usando os novos recursos multimodais do Llama 4, incluindo raciocínio em várias imagens e aterramento de imagens, nos quais você pode identificar elementos em imagens. Você também usará a API oficial do Llama, trabalhará com as habilidades de contexto longo do Llama 4 e aprenderá sobre as mais novas ferramentas de código aberto do Llama: sua ferramenta de otimização de prompt que melhora automaticamente os prompts do sistema e o kit de dados sintéticos que gera conjuntos de dados de alta qualidade para ajuste fino. Se você precisa de um modelo aberto, o Llama é uma ótima opção, e a família Llama 4 é uma parte importante do kit de ferramentas de qualquer desenvolvedor GenAI. Por meio deste curso, você aprenderá a chamar o Llama 4 via API, usar suas ferramentas de otimização e criar recursos que abrangem texto, imagens e contexto amplo. Por favor, inscreva-se aqui:
57,64K