目录

Vane:隐私优先的 AI 回答引擎完全指南

Vane:隐私优先的 AI 回答引擎完全指南

§1 学习目标

完成本文档后,你将能够:

  • ✅ 理解 Vane 的核心定位与设计理念
  • ✅ 掌握 Vane 的十一大核心功能
  • ✅ 熟练安装和配置 Vane(Docker/非Docker)
  • ✅ 配置多种 AI 提供商(Ollama/OpenAI/Claude/Gemini/Groq)
  • ✅ 使用智能搜索模式(Speed/Balanced/Quality)
  • ✅ 使用文件上传和搜索功能
  • ✅ 配置 SearxNG 和其他搜索源
  • ✅ 排查常见问题(Ollama/Lemonade 连接错误)
  • ✅ 使用 Vane 的 API

§2 项目概述

2.1 什么是 Vane?

Vane(官方仓库:ItzCrazyKns/Vane)是一个隐私优先的 AI 回答引擎,完全运行在你自己的硬件上。

官方描述

Vane is a privacy-focused AI answering engine that runs entirely on your own hardware. It combines knowledge from the vast internet with support for local LLMs (Ollama) and cloud providers (OpenAI, Anthropic Claude, Groq), delivering accurate answers with cited sources while keeping your searches completely private.

翻译:Vane 是一个注重隐私的 AI 回答引擎,完全运行在你自己的硬件上。它结合了互联网的广泛知识,支持本地 LLM(Ollama)和云服务提供商(OpenAI、Anthropic Claude、Groq),提供带有引用来源的准确答案,同时保持你的搜索完全私密。

2.2 核心价值主张

价值说明
隐私优先完全运行在本地硬件,搜索历史不外泄
多 AI 支持Ollama/OpenAI/Claude/Gemini/Groq
智能搜索Speed/Balanced/Quality 三种模式
来源可选网页、讨论、学术论文
引用来源所有答案都有来源引用
文件理解PDF、图片、文本文件上传分析

2.3 核心数据

Stars:     33,500 (33.5k)
Forks:     3,600 (3.6k)
Watchers:  187
贡献者:    48 人
提交数:   986 次
分支数:    20 个
标签数:    38 个
发布版本:  33 个
最新版本:  v1.12.1 (2025-12-31)
许可证:    MIT
语言:     TypeScript 98.7%

2.4 功能一览

功能说明
🤖 AI 提供商Ollama/OpenAI/Claude/Gemini/Groq
⚡ 搜索模式Speed/Balanced/Quality
🧭 来源选择网页/讨论/学术论文
🧩 Widgets天气/股票/计算器
🔍 SearxNG隐私搜索引擎
📷 图视搜索图片和视频搜索
📄 文件上传PDF/图片/文本
🌐 域名搜索指定网站搜索
💡 智能建议搜索建议
📚 Discover趋势内容发现
🕒 搜索历史本地保存

§3 核心功能详解

3.1 多 AI 提供商支持

支持的 AI 提供商

提供商类型说明
Ollama本地运行本地 LLM
OpenAIGPT-4o 等
Anthropic ClaudeClaude 3.5 等
Google GeminiGemini 2.0 等
Groq高速推理

配置多个提供商

Vane 允许同时配置多个提供商,根据需求混合使用。

3.2 智能搜索模式

模式用途特点
Speed Mode快速答案低延迟,快速响应
Balanced Mode日常搜索平衡速度和质量
Quality Mode深度研究全面深入的分析

3.3 来源选择

来源说明
Web互联网搜索
Discussions社区讨论
Academic Papers学术论文

3.4 Widgets

智能 UI 卡片,在相关时显示:

Widget说明
Weather天气预报
Calculations计算器
Stock Prices股票价格
Quick Lookups快速查询

3.5 SearxNG 搜索

  • 隐私保护:使用 SearxNG 保护身份
  • 多引擎支持:同时搜索多个搜索引擎
  • 即将支持:Tavily 和 Exa

3.6 文件上传与分析

支持的格式

格式说明
PDF文档分析
Images图片理解
Text Files文本分析

3.7 域名搜索

当你知道从哪里找时,可以限制在特定网站搜索:

  • 技术文档
  • 研究论文
  • 特定论坛

3.8 Discover 功能

浏览有趣的文章和全天趋势内容。无需搜索也能保持信息更新。

3.9 搜索历史

每次搜索都保存在本地,可以随时回顾。研究成果永不丢失。


§4 安装与配置

4.1 Docker 安装(推荐)

快速启动

docker run -d -p 3000:3000 -v vane-data:/home/vane/data --name vane itzcrazykns1337/vane:latest

说明

  • -d:后台运行
  • -p 3000:3000:端口映射
  • -v vane-data:/home/vane/data:数据持久化
  • 包含 SearxNG 搜索引擎

访问

打开浏览器访问:http://localhost:3000

4.2 使用自有 SearxNG 实例

如果已有 SearxNG 运行,使用 slim 版本:

docker run -d -p 3000:3000 \
  -e SEARXNG_API_URL=http://your-searxng-url:8080 \
  -v vane-data:/home/vane/data \
  --name vane itzcrazykns1337/vane:slim-latest

SearxNG 要求

  • JSON 格式启用
  • Wolfram Alpha 搜索引擎启用

4.3 从源码构建

前置要求

  • Docker 已安装

步骤

# 克隆仓库
git clone https://github.com/ItzCrazyKns/Vane.git
cd Vane

# 构建并运行
docker build -t vane .
docker run -d -p 3000:3000 -v vane-data:/home/vane/data --name vane vane

4.4 非 Docker 安装

前置要求

  • SearxNG 已安装并配置(JSON 格式启用,Wolfram Alpha 启用)

步骤

# 克隆仓库
git clone https://github.com/ItzCrazyKns/Vane.git
cd Vane

# 安装依赖
npm i

# 构建
npm run build

# 启动
npm run start

访问:http://localhost:3000

4.5 配置 AI 提供商

在设置界面配置:

  1. API Keys
  2. 模型选择
  3. SearxNG URL

§5 故障排除

5.1 Ollama 连接错误

检查事项

  1. Ollama API URL 正确

  2. 不同系统的 API URL

    • Windows:使用 http://host.docker.internal:11434
    • Mac:使用 http://host.docker.internal:11434
    • Linux:使用 http://<主机IP>:11434
  3. Linux 用户暴露 Ollama 到网络

编辑 /etc/systemd/system/ollama.service,添加:

Environment="OLLAMA_HOST=0.0.0.0:11434"

然后重新加载:

systemctl daemon-reload
systemctl restart ollama

5.2 Lemonade 连接错误

检查事项

  1. Lemonade API URL 正确

  2. 不同系统的 API URL

    • Windows:使用 http://host.docker.internal:8000
    • Mac:使用 http://host.docker.internal:8000
    • Linux:使用 http://<主机IP>:8000
  3. Lemonade 服务器运行中

5.3 本地 OpenAI-API-兼容服务器

检查事项

  1. 服务器运行在 0.0.0.0(不是 127.0.0.1
  2. 端口正确
  3. API key 字段填写了内容(即使服务器不需要 key)

§6 使用示例

6.1 基础搜索

输入:什么是 RAG
输出:带有引用来源的详细解释

6.2 文件分析

上传:一份 PDF 研究论文
提问:总结主要发现
输出:AI 总结的论文核心内容

6.3 深度研究

使用 Quality Mode 进行深度研究:

输入:分析 AI Agent 在 2026 年的发展趋势
输出:全面的研究报告,包含多个来源引用

§7 项目结构

7.1 目录结构

目录说明
src/Next.js 源代码
public/静态资源
drizzle/数据库配置
searxng/SearxNG 配置
docs/文档
data/数据存储
.assets/资源文件

7.2 配置文件

文件说明
package.jsonNode.js 配置
next.config.mjsNext.js 配置
tailwind.config.tsTailwind CSS 配置
docker-compose.yamlDocker Compose 配置
DockerfileDocker 镜像配置

§8 API 使用

Vane 提供 API 供开发者集成。

文档位置

详见 docs/API/SEARCH.md

基本用法

# 搜索示例
curl -X POST http://localhost:3000/api/search \
  -H "Content-Type: application/json" \
  -d '{"query": "your question"}'

§9 一键部署

平台链接
SealosDeploy to Sealos
RepoCloudDeploy to RepoCloud
ClawCloudRun on ClawCloud
HostingerDeploy on Hostinger

§10 即将推出的功能

功能状态
更多 Widgets 和集成进行中
自定义 Agent进行中
认证系统进行中

§11 常见问题

Q1:Vane 和 Perplexity有什么区别?

特性VanePerplexity
运行位置完全本地云端
隐私完全私密部分隐私
本地 LLM✅ Ollama 支持❌ 不支持
自托管✅ 完全支持❌ 不支持

Q2:需要多少硬件?

最低要求

  • 4GB RAM
  • 10GB 磁盘空间

推荐配置

  • 8GB+ RAM(用于本地 LLM)
  • 20GB+ 磁盘空间

Q3:支持哪些本地模型?

通过 Ollama 支持所有兼容 Ollama 的模型:

  • Llama 2/3
  • Mistral
  • Code Llama
  • 其他 GGUF 格式模型

Q4:如何更新 Vane?

Docker 方式

docker stop vane
docker rm vane
docker pull itzcrazykns1337/vane:latest
# 重新运行

Q5:搜索历史保存在哪里?

保存在 Docker volume 中:

-v vane-data:/home/vane/data

Q6:支持中文吗?

Vane 界面支持多语言,具体搜索结果取决于使用的 AI 提供商和模型。


§12 总结

12.1 核心优势

优势说明
隐私优先完全本地运行,搜索历史不外泄
多 AI 支持Ollama/OpenAI/Claude/Gemini/Groq
智能模式Speed/Balanced/Quality 三种模式
来源引用所有答案都有引用来源
文件理解PDF、图片、文本上传分析
自托管完全开源,可自托管

12.2 适用场景

场景推荐指数
隐私敏感搜索⭐⭐⭐⭐⭐
本地 LLM 使用⭐⭐⭐⭐⭐
深度研究⭐⭐⭐⭐⭐
日常搜索⭐⭐⭐⭐
企业内部搜索⭐⭐⭐⭐⭐

12.3 项目信息

  • Stars:33.5k
  • Forks:3.6k
  • 贡献者:48 人
  • 最新版本:v1.12.1 (2025-12-31)
  • 许可证:MIT

12.4 相关资源

资源链接
GitHubhttps://github.com/ItzCrazyKns/Vane
Discordhttps://discord.gg/26aArMy8tT
Docker Hubhttps://hub.docker.com/r/itzcrazykns1337/vane

文档版本 1.0 | 撰写日期:2026-03-31 | 基于 v1.12.1 (2025-12-31) | Stars: 33.5k ⭐