Consejo para cualquiera que se dedique al desarrollo de IA: Utilice Ollama para ejecutar fácilmente modelos como Deepseek-r1 o Gemma localmente en su máquina. Los descarga y pone en marcha un servidor con una API compatible con el SDK de OpenAI Los modelos más pequeños son lo suficientemente rápidos y buenos como para trabajar en nuevas funciones o depurar la transmisión sin tener que pagar por las solicitudes de API
145.56K