Mój następny post na blogu pojawi się w tym tygodniu i będzie znacznie głębszym zanurzeniem niż zwykle. Przejdę przez to, jak dostroiłem Phi-3-mini-4k-instruct (3.8B) od Microsoftu z użyciem LoRA na moim Macu przy pomocy MLX. Eksperyment: badanie, czy model 3.8B, który działa lokalnie, może być dostrojony, aby "mówić jak ja", trenując go na moich własnych postach na blogu. Już przesłałem wagi adaptera LoRA do Hugging Face. Ale co ważniejsze, post podzieli się całym procesem, aby bardziej techniczne osoby mogły nauczyć się, jak zacząć z dostrajaniem: - Przygotowanie danych treningowych - Trenowanie modelu i hiperparametrów - Ocena wyników - Publikacja na Hugging Face I podzielę się całym kodem potrzebnym do zrobienia tego samodzielnie.
14,94K