oLLM: una biblioteca ligera de Python para la inferencia de LLM construida sobre transformers 🔥 Ejecuta qwen3-next-80B, GPT-OSS, Llama3, en hardware de consumo. ¡Gran trabajo de Anuar!