oLLM: uma biblioteca Python leve para inferência LLM construída em cima de transformadores 🔥 Execute qwen3-next-80B, GPT-OSS, Llama3, em hardware de consumidor. Trabalho incrível de Anuar!