Ich mag @jandotai wirklich sehr Es ist eine sehr benutzerfreundliche App, um LLMs lokal auszuführen, großartig für die Privatsphäre Ich habe andere wie LM Studio und Ollama ausprobiert, die sind nett, aber sehr ingenieurlastig, ein bisschen zu schwierig für mich Jan ist einfach, süß und hübsch und eine großartige Alternative, um zu kommunizieren, ohne deine Daten (und Geheimnisse ;)) an große KI-Anbieter zu senden Du kannst sogar Modelle von Remote-Anbietern über die API ausführen, wenn du das möchtest! Außerdem sind sie sehr reaktionsschnell auf Feedback und verbessern die App ständig Ich denke, es gibt Platz für sowohl lokal ausgeführte LLM-Apps als auch Cloud-LLM-Apps, lokal ausgeführt macht Sinn, wenn du über sehr private Dinge sprechen möchtest, Therapie usw. Es ist wirklich wichtig, dass die Leute das haben können, ohne Angst zu haben, dass ihre Daten in der Zukunft durchsickern könnten (Ich bin nicht verbunden oder bezahlt, ich mag es einfach wirklich!)
👋 Jan
👋 Jan12. Aug., 15:55
Einführung von Jan-v1: 4B-Modell für die Websuche, eine Open-Source-Alternative zu Perplexity Pro. In unseren Bewertungen liefert Jan v1 eine Genauigkeit von 91 % bei SimpleQA, was Perplexity Pro leicht übertrifft, während es vollständig lokal läuft. Anwendungsfälle: - Websuche - Tiefenforschung Basierend auf der neuen Version von Qwens Qwen3-4B-Thinking (bis zu 256k Kontextlänge), feinabgestimmt für das Denken und die Nutzung von Werkzeugen in Jan. Sie können das Modell in Jan, llama.cpp oder vLLM ausführen. Um die Suche in Jan zu aktivieren, gehen Sie zu Einstellungen → Experimentelle Funktionen → Aktivieren, dann Einstellungen → MCP-Server → aktivieren Sie einen suchbezogenen MCP wie Serper. Verwenden Sie das Modell: - Jan-v1-4B: - Jan-v1-4B-GGUF: Dank an das @Alibaba_Qwen-Team für Qwen3 4B Thinking & @ggerganov für llama.cpp.
218,33K