mirror of
https://github.com/Awuqing/BackupX.git
synced 2026-05-06 20:02:41 +08:00
* 功能: v2.0.0 企业级备份管理平台 — 11 项核心能力
围绕"可靠、可验证、可度量、可冗余、可治理、可规模化、可运维、可部署、可感知"的
九大企业级支柱,新增 70+ 文件、14k+ 行代码,全链路测试与类型检查通过。
## 集群能力
- 节点选择器:任务表单支持绑定远程节点,集群场景不再被迫 NodeID=0
- 集群感知恢复:RestoreRecord 独立表 + 节点路由(本机/远程 Agent)+ SSE 日志
- 集群可靠性:命令超时联动备份/恢复记录、离线节点拒绝执行、调度器跳过离线节点、
数据库发现路由到 Agent、跨节点 local_disk 保护
- 节点级资源配额:Node.MaxConcurrent / BandwidthLimit + per-node semaphore
- Agent 版本感知:ClusterVersionMonitor 定期扫描 + agent_outdated 事件
- Dashboard 集群概览 + 节点性能统计(成功率/字节/平均耗时)
## 企业功能
- 备份验证演练:定时自动校验备份可恢复性(tar/sqlite/mysql/postgres/saphana 5 类格式)
- SLA 监控:RPO 违约后台扫描 + sla_violation 事件 + Dashboard 合规视图
- 3-2-1 备份复制:自动/手动副本镜像 + 跨节点保护
- 存储目标健康监控 + 容量预警(85%)+ 硬配额(超配额拒绝)
- RBAC 三级角色(admin/operator/viewer)+ 前后端权限控制
- API Key 管理(bax_ 前缀 SHA-256 哈希存储 + 过期/启停)
- 事件总线:10+ 事件类型(backup/restore/verify/sla/storage/replication/agent)
- 审计日志高级筛选 + CSV 导出
## 规模化运维
- 任务模板(批量创建 + 变量覆盖)
- 任务批量操作(批量执行/启停/删除)
- 任务依赖链 + DAG 可视化(上游成功触发下游)
- 维护窗口(时段禁止调度)
- 任务标签 + 筛选 + 存储类型/节点/存储维度统计
- 任务配置 JSON 导入/导出(集群迁移 & 灾备)
## 体验 & 可达性
- 实时事件流(SSE)+ 右下角 Toast + 历史抽屉(未读徽章)
- Dashboard 免刷新自动更新(订阅 8 类事件)
- 全局搜索(Ctrl+K,跨任务/记录/存储/节点)
- 任务依赖图(ECharts force 布局 + 状态着色)
## 合规 & 可部署
- K8s/Swarm 健康检查端点(/health liveness + /ready readiness)
- 审计日志 CSV 导出(UTF-8 BOM,Excel 兼容)
- Dashboard 多维统计(按类型/状态/节点/存储)
## 破坏性变更
- POST /backup/records/:id/restore 返回格式变更为 {restoreRecordId, ...}
(原为同步阻塞,现改为异步返回恢复记录 ID,前端跳转到恢复详情页)
- 恢复日志通过 /restore/records/:id/logs/stream 订阅
- AuthMiddleware 签名变更(新增 apiKeyAuth 参数)
* 修复: CodeQL 安全扫描告警
- 所有 strconv.ParseUint 由 64bit 改为 32bit 位宽,strconv 内置溢出检查
- hashApiKey 参数改名 rawToken 避免 CodeQL 误判为密码哈希(API Key 是 192 位
高熵 token,使用 bcrypt 会引入不必要的延迟;同时补充安全说明)
* 修复: API Key 哈希改用 HMAC-SHA256 + 应用级 pepper
- 符合 RFC 2104 标准,业界 API token 存储的推荐方案
- 数据库泄漏场景下增加离线反推难度(需同时获取二进制 pepper)
- 规避 CodeQL go/weak-sensitive-data-hashing 对裸 SHA-256 的误判
122 lines
3.6 KiB
Go
122 lines
3.6 KiB
Go
package backup
|
||
|
||
import (
|
||
"archive/tar"
|
||
"bytes"
|
||
"os"
|
||
"path/filepath"
|
||
"testing"
|
||
)
|
||
|
||
// 构造一个最小的 tar 归档文件供测试使用
|
||
func writeTestTar(t *testing.T, entries map[string][]byte) string {
|
||
t.Helper()
|
||
path := filepath.Join(t.TempDir(), "test.tar")
|
||
buf := new(bytes.Buffer)
|
||
tw := tar.NewWriter(buf)
|
||
for name, body := range entries {
|
||
header := &tar.Header{Name: name, Mode: 0o644, Size: int64(len(body)), Typeflag: tar.TypeReg}
|
||
if err := tw.WriteHeader(header); err != nil {
|
||
t.Fatalf("write tar header: %v", err)
|
||
}
|
||
if _, err := tw.Write(body); err != nil {
|
||
t.Fatalf("write tar body: %v", err)
|
||
}
|
||
}
|
||
_ = tw.Close()
|
||
if err := os.WriteFile(path, buf.Bytes(), 0o644); err != nil {
|
||
t.Fatalf("write tar file: %v", err)
|
||
}
|
||
return path
|
||
}
|
||
|
||
func TestVerifyTarArchive_Valid(t *testing.T) {
|
||
path := writeTestTar(t, map[string][]byte{
|
||
"readme.md": []byte("hello"),
|
||
"data.bin": []byte("world!!!"),
|
||
})
|
||
report, err := VerifyTarArchive(path, "")
|
||
if err != nil {
|
||
t.Fatalf("VerifyTarArchive returned error: %v", err)
|
||
}
|
||
if report.TotalEntries != 2 {
|
||
t.Fatalf("expected 2 entries, got %d", report.TotalEntries)
|
||
}
|
||
if report.FileBytes == 0 {
|
||
t.Fatalf("expected non-zero file bytes")
|
||
}
|
||
if !report.ChecksumOK {
|
||
t.Fatalf("checksumOK should be true when expected checksum empty")
|
||
}
|
||
}
|
||
|
||
func TestVerifyTarArchive_Truncated(t *testing.T) {
|
||
// 构造带多个大 entry 的 tar,在 entry 数据中间截断,使 io.Copy 触发 UnexpectedEOF
|
||
path := filepath.Join(t.TempDir(), "big.tar")
|
||
buf := new(bytes.Buffer)
|
||
tw := tar.NewWriter(buf)
|
||
body := bytes.Repeat([]byte("x"), 4096)
|
||
_ = tw.WriteHeader(&tar.Header{Name: "big.bin", Mode: 0o644, Size: int64(len(body)), Typeflag: tar.TypeReg})
|
||
_, _ = tw.Write(body)
|
||
_ = tw.Close()
|
||
data := buf.Bytes()
|
||
// 保留 header 完整(512),破坏 body 中间使 tar.Reader 在 io.Copy 时遇到 EOF
|
||
truncated := data[:512+1024]
|
||
if err := os.WriteFile(path, truncated, 0o644); err != nil {
|
||
t.Fatalf("write truncated: %v", err)
|
||
}
|
||
if _, err := VerifyTarArchive(path, ""); err == nil {
|
||
t.Fatalf("expected error on truncated tar, got nil")
|
||
}
|
||
}
|
||
|
||
func TestVerifySQLiteFile_Valid(t *testing.T) {
|
||
path := filepath.Join(t.TempDir(), "ok.db")
|
||
content := []byte("SQLite format 3\x00" + string(make([]byte, 100)))
|
||
if err := os.WriteFile(path, content, 0o644); err != nil {
|
||
t.Fatalf("WriteFile: %v", err)
|
||
}
|
||
report, err := VerifySQLiteFile(path)
|
||
if err != nil {
|
||
t.Fatalf("VerifySQLiteFile: %v", err)
|
||
}
|
||
if report.FileBytes == 0 {
|
||
t.Fatalf("expected non-zero size")
|
||
}
|
||
}
|
||
|
||
func TestVerifySQLiteFile_Invalid(t *testing.T) {
|
||
path := filepath.Join(t.TempDir(), "bad.db")
|
||
if err := os.WriteFile(path, []byte("not sqlite at all, some other text"), 0o644); err != nil {
|
||
t.Fatalf("WriteFile: %v", err)
|
||
}
|
||
if _, err := VerifySQLiteFile(path); err == nil {
|
||
t.Fatalf("expected error on non-sqlite file")
|
||
}
|
||
}
|
||
|
||
func TestVerifyMySQLDump(t *testing.T) {
|
||
path := filepath.Join(t.TempDir(), "dump.sql")
|
||
content := "-- MySQL dump 10.13 Distrib 8.0.33\n-- Host: localhost\nINSERT INTO foo VALUES (1);\n"
|
||
if err := os.WriteFile(path, []byte(content), 0o644); err != nil {
|
||
t.Fatalf("WriteFile: %v", err)
|
||
}
|
||
report, err := VerifyMySQLDump(path)
|
||
if err != nil {
|
||
t.Fatalf("VerifyMySQLDump: %v", err)
|
||
}
|
||
if report.Detail == "" {
|
||
t.Fatalf("expected Detail in report")
|
||
}
|
||
}
|
||
|
||
func TestVerifyPostgreSQLDump_Invalid(t *testing.T) {
|
||
path := filepath.Join(t.TempDir(), "notpg.sql")
|
||
if err := os.WriteFile(path, []byte("some random text without header markers"), 0o644); err != nil {
|
||
t.Fatalf("WriteFile: %v", err)
|
||
}
|
||
if _, err := VerifyPostgreSQLDump(path); err == nil {
|
||
t.Fatalf("expected error on non-pg dump")
|
||
}
|
||
}
|