oLLM: مكتبة Python خفيفة الوزن لاستدلال LLM مبنية على المحولات 🔥 قم بتشغيل qwen3-next-80B ، GPT-OSS ، LLAMA3 ، على أجهزة المستهلك. عمل رائع من قبل أنوار!