Presentiamo "Costruire con Llama 4." Questo breve corso è stato creato con @Meta @AIatMeta e insegnato da @asangani7, Direttore dell'Ingegneria dei Partner per il team AI di Meta. Il nuovo Llama 4 di Meta ha aggiunto tre nuovi modelli e introdotto l'architettura Mixture-of-Experts (MoE) nella sua famiglia di modelli a peso aperto, rendendoli più efficienti da servire. In questo corso, lavorerai con due dei tre nuovi modelli introdotti in Llama 4. Il primo è Maverick, un modello con 400 miliardi di parametri, con 128 esperti e 17 miliardi di parametri attivi. Il secondo è Scout, un modello con 109 miliardi di parametri con 16 esperti e 17 miliardi di parametri attivi. Maverick e Scout supportano finestre di contesto lunghe fino a un milione di token e 10 milioni di token, rispettivamente. Quest'ultimo è sufficiente per supportare l'inserimento diretto anche di repository GitHub piuttosto grandi per l'analisi! In lezioni pratiche, costruirai app utilizzando le nuove capacità multimodali di Llama 4, inclusa la ragionamento su più immagini e il grounding delle immagini, in cui puoi identificare elementi nelle immagini. Utilizzerai anche l'API ufficiale di Llama, lavorerai con le capacità di lungo contesto di Llama 4 e imparerai a conoscere i più recenti strumenti open-source di Llama: il suo strumento di ottimizzazione dei prompt che migliora automaticamente i prompt di sistema e il kit di dati sintetici che genera set di dati di alta qualità per il fine-tuning. Se hai bisogno di un modello aperto, Llama è una grande opzione, e la famiglia Llama 4 è una parte importante del toolkit di qualsiasi sviluppatore GenAI. Attraverso questo corso, imparerai a chiamare Llama 4 tramite API, utilizzare i suoi strumenti di ottimizzazione e costruire funzionalità che spaziano tra testo, immagini e contesto ampio. Iscriviti qui:
57,63K