Următoarea mea postare pe blog va fi lansată săptămâna aceasta și este o scufundare mult mai profundă decât de obicei. Voi trece în revistă modul în care am reglat fin Phi-3-mini-4k-instruct (3.8B) de la Microsoft cu LoRA pe Mac folosind MLX. Experimentul: explorarea dacă un model 3.8B care rulează local poate fi reglat pentru a "vorbi ca mine" antrenându-l pe propriile postări de blog. Am împins deja greutățile adaptorului LoRA la Hugging Face. Dar, mai important, postarea va împărtăși întregul proces, astfel încât oamenii mai tehnici să poată învăța cum să înceapă cu reglarea fină: - Pregătirea datelor de antrenament - Antrenarea modelului și a hiperparametrilor - Evaluarea rezultatelor - Publicarea la Hugging Face Și voi împărtăși tot codul necesar pentru a o face singur.
14,93K