Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mitt nästa blogginlägg släpps den här veckan, och det är en mycket djupare dykning än vanligt.
Jag kommer att gå igenom hur jag finjusterade Microsofts Phi-3-mini-4k-instruera (3.8B) med LoRA på min Mac med MLX.
Experimentet: att utforska om en 3.8B-modell som körs lokalt kan finjusteras för att "tala som jag" genom att träna den på mina egna blogginlägg.
Jag har redan tryckt LoRA-adapterns vikter till Hugging Face.
Men ännu viktigare är att inlägget kommer att dela hela processen så att fler tekniker kan lära sig hur man kommer igång med finjustering:
- Förbereda träningsdata
- Träna modellen och hyperparametrarna
- Utvärdering av resultat
- Publicera till Hugging Face
Och jag kommer att dela med mig av all kod som krävs för att göra det själv.

14,93K
Topp
Rankning
Favoriter