Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
co-fondatore di Coursera; Facoltà aggiunta di Stanford CS. Ex capo di Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Un entusiasmante nuovo certificato professionale: PyTorch per il Deep Learning, insegnato da @lmoroney, è ora disponibile. Questo è il programma definitivo per imparare PyTorch, che è uno dei principali framework utilizzati dai ricercatori per costruire sistemi AI innovativi. Se vuoi capire come funzionano i modelli di deep learning moderni—o costruire le tue architetture personalizzate—PyTorch ti offre il controllo diretto sugli aspetti chiave dello sviluppo del modello.
Questo certificato professionale di tre corsi ti porta dai fondamenti attraverso architetture avanzate e distribuzione:
Corso 1: PyTorch: Fondamenti - Impara come PyTorch rappresenta i dati con i tensori e come i dataset si inseriscono nel processo di addestramento. Costruirai e allenerai reti neurali passo dopo passo, monitorerai i progressi dell'addestramento e valuterai le prestazioni. Alla fine, comprenderai il flusso di lavoro di PyTorch e sarai pronto a progettare, addestrare e testare i tuoi modelli.
Corso 2: PyTorch: Tecniche e Strumenti dell'Ecosistema - Padroneggia l'ottimizzazione degli iperparametri, il profiling dei modelli e l'efficienza del flusso di lavoro. Utilizzerai scheduler per il tasso di apprendimento, affronterai l'overfitting e applicherai la sintonizzazione automatizzata con Optuna. Lavora con TorchVision per l'AI visiva e Hugging Face per il NLP. Impara il transfer learning e affina i modelli pre-addestrati per nuovi problemi.
Corso 3: PyTorch: Architetture Avanzate e Distribuzione - Costruisci architetture sofisticate tra cui Reti Siamese, ResNet, DenseNet e Transformers. Scopri come i meccanismi di attenzione alimentano i modelli linguistici moderni e come i modelli di diffusione generano immagini. Prepara i modelli per la distribuzione con ONNX, MLflow, potatura e quantizzazione.
Competenze che acquisirai:
- Costruire e ottimizzare reti neurali in PyTorch—il framework utilizzato dai ricercatori per creare modelli innovativi
- Affinare modelli pre-addestrati per compiti di visione artificiale e NLP—adattando modelli esistenti per risolvere i tuoi problemi specifici
- Implementare architetture transformer e lavorare con modelli di diffusione, le tecnologie fondamentali dietro ChatGPT e la generazione di immagini moderna
- Ottimizzare i modelli con quantizzazione e potatura per renderli veloci ed efficienti per la distribuzione nel mondo reale
Che tu voglia utilizzare modelli preesistenti, costruire i tuoi modelli personalizzati, o semplicemente capire cosa succede dietro le quinte dei sistemi che utilizzi, questa specializzazione ti darà quella base.
Inizia a imparare PyTorch:
30,33K
Un nuovo corso entusiasmante: Ottimizzazione e Apprendimento per Rinforzo per LLM: Introduzione al Post-training, insegnato da @realSharonZhou, VP di AI presso @AMD. Disponibile ora su .
Il post-training è la tecnica chiave utilizzata dai laboratori all'avanguardia per trasformare un LLM di base--un modello addestrato su un'enorme quantità di testo non etichettato per prevedere la prossima parola/token--in un assistente utile e affidabile che può seguire istruzioni. Ho anche visto molte applicazioni in cui il post-training è ciò che trasforma un'applicazione dimostrativa che funziona solo l'80% delle volte in un sistema affidabile che performa costantemente. Questo corso ti insegnerà le tecniche di post-training più importanti!
In questo corso di 5 moduli, Sharon ti guiderà attraverso l'intero pipeline di post-training: ottimizzazione supervisionata, modellazione dei premi, RLHF e tecniche come PPO e GRPO. Imparerai anche a utilizzare LoRA per un addestramento efficiente e a progettare valutazioni che individuano problemi prima e dopo il deployment.
Competenze che acquisirai:
- Applicare l'ottimizzazione supervisionata e l'apprendimento per rinforzo (RLHF, PPO, GRPO) per allineare i modelli ai comportamenti desiderati
- Utilizzare LoRA per un'ottimizzazione efficiente senza riaddestrare interi modelli
- Preparare dataset e generare dati sintetici per il post-training
- Comprendere come operare pipeline di produzione LLM, con punti decisionali go/no-go e feedback loops
Questi metodi avanzati non sono più limitati ai laboratori AI all'avanguardia, e ora puoi usarli nelle tue applicazioni.
Impara qui:
97,76K
Principali
Ranking
Preferiti

