Îmi place foarte mult @jandotai Este o aplicație foarte prietenoasă pentru a rula LLM-uri local, excelentă pentru confidențialitate Am încercat altele precum LM Studio și Ollama și sunt drăguțe, dar foarte construite de ingineri, puțin prea dificile pentru mine Jan este simplu, drăguț și drăguț și o alternativă excelentă cu care să vorbești fără a-ți trimite datele (și secretele ;)) marilor furnizori de inteligență artificială Puteți chiar să rulați modele de furnizori la distanță prin API, dacă doriți asta! De asemenea, sunt foarte receptivi la feedback și îmbunătățesc mereu aplicația Cred că există spațiu atât pentru aplicațiile LLM rulate local, cât și pentru aplicațiile LLM în cloud, rularea locală are sens dacă vrei să vorbești despre lucruri foarte private, terapie etc. Este foarte important ca oamenii să poată avea asta fără să se teamă că datele tale ar putea avea scurgeri în viitor (Nu sunt afiliat sau plătit, îmi place foarte mult!)
👋 Jan
👋 Jan12 aug., 15:55
Vă prezentăm modelul Jan-v1: 4B pentru căutarea pe web, o alternativă open-source la Perplexity Pro. În evaluările noastre, Jan v1 oferă o precizie SimpleQA de 91%, depășind ușor Perplexity Pro în timp ce rulează complet local. Cazuri de utilizare: - Căutare pe web - Cercetare aprofundată Construit pe noua versiune a Qwen3-4B-Thinking de la Qwen (până la 256k lungime de context), ajustată fin pentru raționament și utilizarea instrumentelor în ianuarie. Puteți rula modelul în ianuarie, llama.cpp sau vLLM. Pentru a activa căutarea în ianuarie, accesați Setări → Funcții experimentale → Activat, apoi Setări → Servere MCP → activați un MCP legat de căutare, cum ar fi Serper. Utilizați modelul: - Ianuarie-v1-4B: - Ianuarie-v1-4B-GGUF: Mulțumesc echipei @Alibaba_Qwen pentru Qwen3 4B Thinking & @ggerganov pentru llama.cpp.
226,53K