Mon prochain article de blog sera publié cette semaine, et c'est une plongée beaucoup plus profonde que d'habitude. Je vais expliquer comment j'ai affiné le modèle Phi-3-mini-4k-instruct (3,8B) de Microsoft avec LoRA sur mon Mac en utilisant MLX. L'expérience : explorer si un modèle de 3,8B qui fonctionne localement peut être affiné pour "parler comme moi" en l'entraînant sur mes propres articles de blog. J'ai déjà poussé les poids de l'adaptateur LoRA sur Hugging Face. Mais plus important encore, l'article partagera l'ensemble du processus afin que les personnes plus techniques puissent apprendre à se lancer dans l'affinage : - Préparation des données d'entraînement - Entraînement du modèle et hyperparamètres - Évaluation des résultats - Publication sur Hugging Face Et je partagerai tout le code nécessaire pour le faire vous-même.
14,28K