Posting blog saya berikutnya akan dirilis minggu ini, dan ini adalah penyelaman yang jauh lebih dalam dari biasanya. Saya akan membahas bagaimana saya menyempurnakan Microsoft Phi-3-mini-4k-instruct (3.8B) dengan LoRA di Mac saya menggunakan MLX. Eksperimen: mengeksplorasi apakah model 3.8B yang berjalan secara lokal dapat disesuaikan untuk "berbicara seperti saya" dengan melatihnya di posting blog saya sendiri. Saya telah mendorong bobot adaptor LoRA ke Hugging Face. Tetapi yang lebih penting, postingan akan membagikan seluruh proses sehingga lebih banyak orang teknis dapat mempelajari cara memulai penyempurnaan: - Menyiapkan data pelatihan - Melatih model dan hiperparameter - Mengevaluasi hasil - Menerbitkan untuk Memeluk Wajah Dan saya akan membagikan semua kode yang diperlukan untuk melakukannya sendiri.
14,92K