Mi próxima publicación en el blog se publicará esta semana, y es una inmersión mucho más profunda de lo habitual. Voy a explicar cómo ajusté el Phi-3-mini-4k-instruct (3.8B) de Microsoft con LoRA en mi Mac usando MLX. El experimento: explorar si un modelo de 3.8B que se ejecuta localmente puede ser ajustado para "hablar como yo" entrenándolo con mis propias publicaciones del blog. Ya he subido los pesos del adaptador LoRA a Hugging Face. Pero lo más importante, la publicación compartirá todo el proceso para que las personas más técnicas puedan aprender cómo empezar con el ajuste fino: - Preparar los datos de entrenamiento - Entrenar el modelo y los hiperparámetros - Evaluar resultados - Publicar en Hugging Face Y compartiré todo el código necesario para que lo hagas tú mismo.
14,93K