Ollama v0.11.8 stelt nu standaard flash attention in op de 20B en 120B modellen van OpenAI's gpt-oss voor systemen die dit ondersteunen!
32,11K