Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
Medgrundare av Coursera; Stanford CS adjungerad fakultet. Tidigare chef för Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Ett spännande nytt professionellt certifikat: PyTorch for Deep Learning som lärs ut av @lmoroney finns nu tillgängligt på . Detta är det definitiva programmet för att lära sig PyTorch, som är ett av de viktigaste ramverken som forskare använder för att bygga banbrytande AI-system. Om du vill förstå hur moderna djupinlärningsmodeller fungerar – eller skapa egna anpassade arkitekturer – ger PyTorch dig direkt kontroll över de viktigaste aspekterna av modellutveckling.
Detta tre-rätters professionella certifikat tar dig från grunderna genom avancerade arkitekturer och distribution:
Kurs 1: PyTorch: Fundamentals – Lär dig hur PyTorch representerar data med tensorer och hur datauppsättningar passar in i träningsprocessen. Du kommer att bygga och träna neurala nätverk steg för steg, övervaka träningsframsteg och utvärdera prestanda. I slutet kommer du att förstå PyTorchs arbetsflöde och vara redo att designa, träna och testa dina egna modeller.
Kurs 2: PyTorch: Tekniker och ekosystemverktyg - Bemästra optimering av hyperparametrar, modellprofilering och arbetsflödeseffektivitet. Du kommer att använda schemaläggare för inlärningshastighet, ta itu med överanpassning och tillämpa automatiserad justering med Optuna. Arbeta med TorchVision för visuell AI och Hugging Face för NLP. Lär dig, överföringsinlärning och finjustera förtränade modeller för nya problem.
Kurs 3: PyTorch: Advanced Architectures and Deployment - Bygg sofistikerade arkitekturer inklusive Siamese Networks, ResNet, DenseNet och Transformers. Lär dig hur uppmärksamhetsmekanismer driver moderna språkmodeller och hur diffusionsmodeller genererar bilder. Förbered modeller för distribution med ONNX, MLflow, rensning och kvantisering.
Färdigheter du kommer att få:
- Bygg och optimera neurala nätverk i PyTorch – det ramverk som forskare använder för att skapa banbrytande modeller
- Finjustera förtränade modeller för datorseende och NLP-uppgifter – anpassa befintliga modeller för att lösa dina specifika problem
- Implementera transformatorarkitekturer och arbeta med diffusionsmodeller, kärnteknologierna bakom ChatGPT och modern bildgenerering
- Optimera modeller med kvantisering och beskärning för att göra dem snabba och effektiva för verklig distribution
Oavsett om du vill använda befintliga modeller, bygga dina egna anpassade modeller eller bara förstå vad som händer under huven på de system du använder, kommer den här specialiseringen att ge dig den grunden.
Börja lära dig PyTorch:
59,38K
En spännande ny kurs: Finjustering och förstärkningsinlärning för LLM: Intro till efterutbildning, undervisad av @realSharonZhou, VP för AI på @AMD. Finns nu på .
Efterträning är den viktigaste tekniken som används av frontier labs för att förvandla en bas-LLM – en modell som tränats på massiv omärkt text för att förutsäga nästa ord/token – till en användbar, pålitlig assistent som kan följa instruktionerna. Jag har också sett många applikationer där efterutbildning är det som förvandlar en demoapplikation som bara fungerar 80 % av tiden till ett pålitligt system som konsekvent presterar. Den här kursen kommer att lära dig de viktigaste teknikerna efter träningen!
I den här 5-modulskursen går Sharon igenom hela pipelinen efter träningen: övervakad finjustering, belöningsmodellering, RLHF och tekniker som PPO och GRPO. Du kommer också att lära dig att använda LoRA för effektiv träning och att designa evals som fångar upp problem före och efter distribution.
Färdigheter du kommer att få:
- Tillämpa övervakad finjustering och förstärkningsinlärning (RLHF, PPO, GRPO) för att anpassa modeller till önskade beteenden
- Använd LoRA för effektiv finjustering utan att träna om hela modeller
- Förbereda datauppsättningar och generera syntetisk data för efterträning
- Förstå hur man använder LLM-produktionspipelines, med go / no-go beslutspunkter och återkopplingsslingor
Dessa avancerade metoder är inte längre begränsade till avancerade AI-labb, och du kan nu använda dem i dina egna applikationer.
Lär dig här:
115,24K
Topp
Rankning
Favoriter

