oLLM: odlehčená knihovna Pythonu pro LLM inferenci postavená na transformátorech 🔥 Spusťte qwen3-next-80B, GPT-OSS, Llama3, na spotřebitelském hardwaru. Úžasná práce od Anuara!