Meu próximo post no blog será publicado esta semana, e será uma análise muito mais profunda do que o habitual. Vou explicar como ajustei o Phi-3-mini-4k-instruct (3.8B) da Microsoft com LoRA no meu Mac usando MLX. O experimento: explorar se um modelo de 3.8B que roda localmente pode ser ajustado para "falar como eu" treinando-o com meus próprios posts do blog. Já enviei os pesos do adaptador LoRA para o Hugging Face. Mas, mais importante, o post compartilhará todo o processo para que pessoas mais técnicas possam aprender como começar a fazer ajustes: - Preparar os dados de treinamento - Treinar o modelo e hiperparâmetros - Avaliar resultados - Publicar no Hugging Face E vou compartilhar todo o código necessário para você fazer isso por conta própria.
14,92K