Mitt nästa blogginlägg släpps den här veckan, och det är en mycket djupare dykning än vanligt. Jag kommer att gå igenom hur jag finjusterade Microsofts Phi-3-mini-4k-instruera (3.8B) med LoRA på min Mac med MLX. Experimentet: att utforska om en 3.8B-modell som körs lokalt kan finjusteras för att "tala som jag" genom att träna den på mina egna blogginlägg. Jag har redan tryckt LoRA-adapterns vikter till Hugging Face. Men ännu viktigare är att inlägget kommer att dela hela processen så att fler tekniker kan lära sig hur man kommer igång med finjustering: - Förbereda träningsdata - Träna modellen och hyperparametrarna - Utvärdering av resultat - Publicera till Hugging Face Och jag kommer att dela med mig av all kod som krävs för att göra det själv.
14,93K