oLLM: uma biblioteca Python leve para inferência de LLM construída sobre transformers 🔥 Execute qwen3-next-80B, GPT-OSS, Llama3, em hardware de consumo. Trabalho incrível do Anuar!