Seuraava blogikirjoitukseni julkaistaan tällä viikolla, ja se on paljon tavallista syvemmälle sukellus. Käyn läpi, kuinka hienosäädin Microsoftin Phi-3-mini-4k-instructia (3.8B) LoRA:lla Macissani MLX:n avulla. Kokeilu: tutkin, voidaanko paikallisesti toimivaa 3,8 miljardin mallia hienosäätää "puhumaan kuin minä" kouluttamalla sitä omissa blogikirjoituksissani. Olen jo työntänyt LoRA-sovittimen painot Hugging Faceen. Mutta mikä tärkeintä, viesti jakaa koko prosessin, jotta teknisemmät ihmiset voivat oppia aloittamaan hienosäädön: - Harjoitustietojen valmistelu - Mallin ja hyperparametrien kouluttaminen - Tulosten arviointi - Julkaiseminen Hagging Facelle Ja jaan kaiken koodin, jota tarvitaan sen tekemiseen itse.
14,93K