Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mon prochain article de blog sera publié cette semaine, et c'est une plongée beaucoup plus profonde que d'habitude.
Je vais expliquer comment j'ai affiné le modèle Phi-3-mini-4k-instruct (3,8B) de Microsoft avec LoRA sur mon Mac en utilisant MLX.
L'expérience : explorer si un modèle de 3,8B qui fonctionne localement peut être affiné pour "parler comme moi" en l'entraînant sur mes propres articles de blog.
J'ai déjà poussé les poids de l'adaptateur LoRA sur Hugging Face.
Mais plus important encore, l'article partagera l'ensemble du processus afin que les personnes plus techniques puissent apprendre à se lancer dans l'affinage :
- Préparation des données d'entraînement
- Entraînement du modèle et hyperparamètres
- Évaluation des résultats
- Publication sur Hugging Face
Et je partagerai tout le code nécessaire pour le faire vous-même.

14,28K
Meilleurs
Classement
Favoris