oLLM: een lichte Python-bibliotheek voor LLM-inferentie gebouwd bovenop transformers 🔥 Voer qwen3-next-80B, GPT-OSS, Llama3 uit op consumentenhardware. Geweldig werk van Anuar!