Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mijn volgende blogpost verschijnt deze week, en het is een veel diepere duik dan gebruikelijk.
Ik zal uitleggen hoe ik Microsoft’s Phi-3-mini-4k-instruct (3.8B) heb geoptimaliseerd met LoRA op mijn Mac met behulp van MLX.
Het experiment: onderzoeken of een 3.8B-model dat lokaal draait kan worden geoptimaliseerd om "zoals ik te spreken" door het te trainen op mijn eigen blogposts.
Ik heb de LoRA-adaptergewichten al naar Hugging Face gepusht.
Maar belangrijker nog, de post zal het hele proces delen zodat meer technische mensen kunnen leren hoe ze kunnen beginnen met fine-tuning:
- Voorbereiden van de trainingsdata
- Het model trainen en hyperparameters
- Resultaten evalueren
- Publiceren op Hugging Face
En ik zal alle code delen die nodig is om het zelf te doen.

14,93K
Boven
Positie
Favorieten