huangjianwu
|
05877a2197
|
feat(chat): 支持 function calling,模型可主动查询原文数据
新增三个工具供 LLM 调用:
- lookup_transcript: 查询转录原文(按时间范围、关键词、位置筛选)
- get_video_info: 获取视频元信息(标题、作者、简介、标签等)
- get_note_content: 获取完整笔记 Markdown 内容
实现 tool calling 循环(最多 3 轮),LLM 可根据问题
主动调用工具获取所需信息,不再完全依赖 RAG 检索。
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
|
2026-03-23 15:48:23 +08:00 |
|
huangjianwu
|
8a8e448e22
|
feat(chat): 索引视频元信息(标题、作者、简介、标签等)
- 新增 _build_meta_chunk,将 audio_meta 中的标题、UP主、
简介、标签、时长、平台、链接等构建为可检索的 chunk
- query 时同时从 meta/markdown/transcript 三种来源检索
- is_indexed 检测旧索引缺少 meta 时返回 false,自动触发重建
- system prompt 新增 [视频信息] 来源说明
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
|
2026-03-23 15:41:07 +08:00 |
|
huangjianwu
|
a92c779dd6
|
fix(chat): RAG 检索同时召回笔记和转录内容
之前 query 只做一次全局检索,embedding 模型倾向匹配笔记,
导致转录原文几乎不会被召回。
- 改为分别对 markdown 和 transcript 各检索 n_results 条,
合并后按距离排序取 top-n
- 更新 system prompt,明确区分笔记和转录两种来源,
引导 LLM 根据问题类型选择合适的来源回答
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
|
2026-03-23 15:35:31 +08:00 |
|
huangjianwu
|
efadbc267d
|
feat(chat): 基于 RAG 的笔记内容 AI 问答功能
实现类似 Google NotebookLM 的效果:笔记生成后自动向量化,
用户可针对笔记内容进行 LLM 问答。
### 后端
- 新增 VectorStoreManager(ChromaDB),按标题/转录分块建立向量索引
- 新增 chat_service.py RAG 问答:检索相关片段 → 构建 prompt → 调用 LLM
- 新增 /chat/index, /chat/ask, /chat/status API 端点
- 笔记生成完成后自动建立向量索引
### 前端
- 使用 @ant-design/x Bubble.List + Sender 组件构建聊天面板
- 新增 chatStore(Zustand + persist)持久化聊天记录
- MarkdownViewer 右侧嵌入 ChatPanel,通过"AI 问答"按钮切换
- 首次打开自动检查/触发索引,支持重新索引
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
|
2026-03-23 14:38:39 +08:00 |
|