Nuestro último blog de la comunidad PyTorch presenta al autor del equipo de SGLang, Biao (Stefan) H., sobre cómo SGLang avanza modelos híbridos Mamba más Attention con una mejora en eficiencia de memoria, caché de prefijos, decodificación especulativa y rendimiento de servicio. 🖇️ Lee el blog: #PyTorch #AIInfrastructure #SGLang #LLM