热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
我真的非常喜欢 @jandotai
这是一个非常友好的应用程序,可以本地运行 LLM,非常适合隐私保护。
我尝试过其他应用,比如 LM Studio 和 Ollama,它们也不错,但都是工程师构建的,对我来说有点太难了。
Jan 简单、可爱、美丽,是一个很好的替代选择,可以在不将你的数据(和秘密;)发送给大型 AI 提供商的情况下进行对话。
如果你想要的话,你甚至可以通过 API 运行远程提供商的模型!
此外,他们对反馈非常响应,并且总是在改进应用程序。
我认为本地运行的 LLM 应用和云 LLM 应用都有其空间,如果你想谈论非常私密的事情,比如治疗等,本地运行是有意义的。人们能够在不担心未来数据泄露的情况下拥有这样的能力是非常重要的。
(我没有任何关联或报酬,只是非常喜欢它!)




8月12日 15:55
介绍 Jan-v1:用于网络搜索的 4B 模型,是 Perplexity Pro 的开源替代品。
在我们的评估中,Jan v1 提供了 91% 的 SimpleQA 准确率,略微超越了 Perplexity Pro,同时完全在本地运行。
使用案例:
- 网络搜索
- 深度研究
基于 Qwen 的新版本 Qwen3-4B-Thinking(支持高达 256k 的上下文长度),针对推理和工具使用进行了微调。
您可以在 Jan、llama.cpp 或 vLLM 中运行该模型。要在 Jan 中启用搜索,请转到设置 → 实验功能 → 开启,然后设置 → MCP 服务器 → 启用与搜索相关的 MCP,例如 Serper。
使用该模型:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
感谢 @Alibaba_Qwen 团队提供的 Qwen3 4B Thinking 和 @ggerganov 提供的 llama.cpp。
218.33K
热门
排行
收藏