oLLM: una biblioteca ligera de Python para la inferencia de LLM construida sobre transformadores 🔥 Ejecute qwen3-next-80B, GPT-OSS, Llama3, en hardware de consumo. ¡Impresionante trabajo de Anuar!