oLLM: pustaka Python ringan untuk inferensi LLM yang dibangun di atas transformator 🔥 Jalankan qwen3-next-80B, GPT-OSS, Llama3, pada perangkat keras konsumen. Karya luar biasa oleh Anuar!