让 AI 拥有长期记忆

Recalla 是一个开源、自部署的 AI 记忆基础设施。跨设备存储、搜索、同步上下文 — 换电脑不丢上下文,AI 帮你接着写。

开始使用 工作原理
$ git clone https://github.com/gentpan/recalla.git
$ cd recalla && docker compose up -d
# 完成。记忆层已启动。
AI 天生没有记忆
每次对话都从零开始。没有记忆、没有延续、没有上下文。你在不同设备和工具之间不断重复自己。

上下文丢失

从 MacBook 切换到台式机 — AI 完全不知道你之前在做什么。决策遗忘、进度丢失。

重复劳动

每次新会话都要解释同样的架构、同样的代码库、同样的约束条件。每台设备,每次都来一遍。

没有延续性

Token 限制、会话中断、工具切换。上下文只是一个瞬间消失的短期缓存。

Recalla 解决这个问题
一个持久化、可搜索、跨设备的 AI 记忆层。

跨设备同步

记忆存在你自己的服务器上。换设备后,AI 自动接上上次的进度 — 分支、设备、决策,全部记住。

语义搜索

用自然语言找到相关上下文。基于向量搜索(Qdrant),支持 OpenAI、Qwen、Ollama 嵌入模型。

MCP 协议

一个服务,所有工具通用。通过标准 MCP 协议支持 Claude Code Cursor VS Code Codex

AI 压缩

长会话自动压缩为结构化摘要。关键决策、代码变更、待办事项全部保留。上下文限制不再是问题。

GitHub 集成

通过 Webhook 自动记录 push 和 PR 事件。在控制台浏览仓库和提交历史。

团队协作

创建团队、按用户名邀请成员、共享记忆。团队级语义搜索可查找任何成员的知识。

知识图谱

带时间有效性的实体事实。追踪谁负责什么、用了什么技术栈、何时做的决策。内置矛盾检测。

自动标签和评分

记忆自动标签(决策/Bug/部署/代码)和重要性评分。决策类排名更高。零人工操作。

配置同步

将 CLAUDE.md 等 AI 配置推送到服务器。新设备自动拉取,不需要 Syncthing。

Telegram 和 CLI

从 Telegram 或终端搜索记忆、提问 AI、获取每日简报。recalla search "登录 bug"

自部署

数据在你自己的服务器上,零第三方依赖。Docker 一键部署。MIT 开源协议。

架构
简单、快速、自包含。
任意设备 Claude Code Cursor Codex VS Code MCP 协议 Recalla 服务器 Go | REST API | MCP | 控制台 | Webhook PostgreSQL 记忆 / 团队 知识图谱 Qdrant 向量搜索 语义检索 AI 提供商 OpenAI / Qwen / DeepSeek 嵌入 + 压缩 保存记忆 → 嵌入 → 存储向量 → 搜索 → 注入上下文 → AI 输出 docker compose up
MCP 工具
12 个工具,让你的 AI 拥有持久记忆和团队协作能力。
工具功能使用时机
context_restore恢复项目上下文 — 上次设备、分支、最近记忆每次对话开始
memory_save保存记忆 — 决策、代码变更、Bug 修复、部署做出重要操作后
memory_search语义搜索所有记忆开始新任务前
session_sync同步当前会话到云端,记录设备和分支信息对话结束时
session_compressAI 压缩长会话为结构化摘要上下文过长时
project_list列出所有已记录的项目发现和浏览
config_push推送本地 AI 配置文件到服务器配置修改后
config_pull从服务器拉取最新配置到本地新设备初始化
team_search搜索团队所有成员的记忆团队协作
team_share共享记忆到团队知识共享
add_fact添加实体事实到知识图谱记录事实
query_facts查询知识图谱(带时间有效性)谁负责什么

30 秒启动

克隆、部署、连接。从现在开始,你的 AI 记住一切。

GitHub 文档