Hett tips för alla som arbetar med AI-utveckling: Använd Ollama för att enkelt köra modeller som Deepseek-r1 eller Gemma lokalt på din maskin. Den laddar ner dem och snurrar upp en server med ett OpenAI SDK-kompatibelt API De mindre modellerna är snabba och tillräckligt bra för att arbeta med nya funktioner eller felsöka strömning utan att behöva betala för API-förfrågningar
145,63K