Następnym krokiem byłoby połączenie Twoich LLM z innymi, umożliwiając P2P udostępnianie. Pomyśl o tym jak o mini (prywatnej) zdecentralizowanej sieci treningowej, w której każdy uczestnik stopniowo poprawia swój model, wymieniając się aktualizacjami lub gradientami.
definikola
definikola15 paź, 04:18
Jak długo musimy czekać na model podobny do chatgpt, który będziemy mogli trenować na naszych własnych danych, zdolny do uczenia się z historycznych rozmów, a my będziemy mogli zapłacić za serwer/uruchomić go lokalnie (bez wycieków danych), itd.? Zdecydowanie bym z tego korzystał.
Nie jestem ekspertem w tej dziedzinie, więc to prawdopodobnie utopijne marzenia, ale przypuszczam, że technicznie jest to możliwe dla małych i średnich modeli.
1,28K