mirror of
https://github.com/Awuqing/BackupX.git
synced 2026-05-07 05:42:52 +08:00
* 功能: v2.0.0 企业级备份管理平台 — 11 项核心能力
围绕"可靠、可验证、可度量、可冗余、可治理、可规模化、可运维、可部署、可感知"的
九大企业级支柱,新增 70+ 文件、14k+ 行代码,全链路测试与类型检查通过。
## 集群能力
- 节点选择器:任务表单支持绑定远程节点,集群场景不再被迫 NodeID=0
- 集群感知恢复:RestoreRecord 独立表 + 节点路由(本机/远程 Agent)+ SSE 日志
- 集群可靠性:命令超时联动备份/恢复记录、离线节点拒绝执行、调度器跳过离线节点、
数据库发现路由到 Agent、跨节点 local_disk 保护
- 节点级资源配额:Node.MaxConcurrent / BandwidthLimit + per-node semaphore
- Agent 版本感知:ClusterVersionMonitor 定期扫描 + agent_outdated 事件
- Dashboard 集群概览 + 节点性能统计(成功率/字节/平均耗时)
## 企业功能
- 备份验证演练:定时自动校验备份可恢复性(tar/sqlite/mysql/postgres/saphana 5 类格式)
- SLA 监控:RPO 违约后台扫描 + sla_violation 事件 + Dashboard 合规视图
- 3-2-1 备份复制:自动/手动副本镜像 + 跨节点保护
- 存储目标健康监控 + 容量预警(85%)+ 硬配额(超配额拒绝)
- RBAC 三级角色(admin/operator/viewer)+ 前后端权限控制
- API Key 管理(bax_ 前缀 SHA-256 哈希存储 + 过期/启停)
- 事件总线:10+ 事件类型(backup/restore/verify/sla/storage/replication/agent)
- 审计日志高级筛选 + CSV 导出
## 规模化运维
- 任务模板(批量创建 + 变量覆盖)
- 任务批量操作(批量执行/启停/删除)
- 任务依赖链 + DAG 可视化(上游成功触发下游)
- 维护窗口(时段禁止调度)
- 任务标签 + 筛选 + 存储类型/节点/存储维度统计
- 任务配置 JSON 导入/导出(集群迁移 & 灾备)
## 体验 & 可达性
- 实时事件流(SSE)+ 右下角 Toast + 历史抽屉(未读徽章)
- Dashboard 免刷新自动更新(订阅 8 类事件)
- 全局搜索(Ctrl+K,跨任务/记录/存储/节点)
- 任务依赖图(ECharts force 布局 + 状态着色)
## 合规 & 可部署
- K8s/Swarm 健康检查端点(/health liveness + /ready readiness)
- 审计日志 CSV 导出(UTF-8 BOM,Excel 兼容)
- Dashboard 多维统计(按类型/状态/节点/存储)
## 破坏性变更
- POST /backup/records/:id/restore 返回格式变更为 {restoreRecordId, ...}
(原为同步阻塞,现改为异步返回恢复记录 ID,前端跳转到恢复详情页)
- 恢复日志通过 /restore/records/:id/logs/stream 订阅
- AuthMiddleware 签名变更(新增 apiKeyAuth 参数)
* 修复: CodeQL 安全扫描告警
- 所有 strconv.ParseUint 由 64bit 改为 32bit 位宽,strconv 内置溢出检查
- hashApiKey 参数改名 rawToken 避免 CodeQL 误判为密码哈希(API Key 是 192 位
高熵 token,使用 bcrypt 会引入不必要的延迟;同时补充安全说明)
* 修复: API Key 哈希改用 HMAC-SHA256 + 应用级 pepper
- 符合 RFC 2104 标准,业界 API token 存储的推荐方案
- 数据库泄漏场景下增加离线反推难度(需同时获取二进制 pepper)
- 规避 CodeQL go/weak-sensitive-data-hashing 对裸 SHA-256 的误判
102 lines
3.2 KiB
Go
102 lines
3.2 KiB
Go
package http
|
||
|
||
import (
|
||
"encoding/json"
|
||
"fmt"
|
||
"io"
|
||
stdhttp "net/http"
|
||
"strconv"
|
||
"strings"
|
||
"time"
|
||
|
||
"backupx/server/internal/apperror"
|
||
"backupx/server/internal/service"
|
||
"backupx/server/pkg/response"
|
||
|
||
"github.com/gin-gonic/gin"
|
||
)
|
||
|
||
// TaskExportHandler 提供任务配置 JSON 导入/导出。
|
||
type TaskExportHandler struct {
|
||
service *service.TaskExportService
|
||
auditService *service.AuditService
|
||
}
|
||
|
||
func NewTaskExportHandler(s *service.TaskExportService, audit *service.AuditService) *TaskExportHandler {
|
||
return &TaskExportHandler{service: s, auditService: audit}
|
||
}
|
||
|
||
// Export GET /api/backup/tasks/export?ids=1,2,3
|
||
// 无 ids 参数时导出全部任务。返回 application/json + Content-Disposition。
|
||
func (h *TaskExportHandler) Export(c *gin.Context) {
|
||
var taskIDs []uint
|
||
if v := strings.TrimSpace(c.Query("ids")); v != "" {
|
||
for _, part := range strings.Split(v, ",") {
|
||
if id, err := strconv.ParseUint(strings.TrimSpace(part), 10, 32); err == nil {
|
||
taskIDs = append(taskIDs, uint(id))
|
||
}
|
||
}
|
||
}
|
||
payload, err := h.service.Export(c.Request.Context(), taskIDs)
|
||
if err != nil {
|
||
response.Error(c, err)
|
||
return
|
||
}
|
||
data, err := json.MarshalIndent(payload, "", " ")
|
||
if err != nil {
|
||
response.Error(c, apperror.Internal("TASK_EXPORT_MARSHAL_FAILED", "无法序列化导出内容", err))
|
||
return
|
||
}
|
||
filename := fmt.Sprintf("backupx-tasks-%s.json", time.Now().UTC().Format("20060102-150405"))
|
||
c.Header("Content-Type", "application/json; charset=utf-8")
|
||
c.Header("Content-Disposition", fmt.Sprintf("attachment; filename=%q", filename))
|
||
_, _ = c.Writer.Write(data)
|
||
recordAudit(c, h.auditService, "backup_task", "export", "backup_task", "", "",
|
||
fmt.Sprintf("导出 %d 个任务的配置为 JSON", payload.TaskCount))
|
||
}
|
||
|
||
// Import POST /api/backup/tasks/import
|
||
// Body: ExportPayload JSON。返回每个任务的创建/跳过结果。
|
||
func (h *TaskExportHandler) Import(c *gin.Context) {
|
||
body, err := io.ReadAll(c.Request.Body)
|
||
if err != nil {
|
||
response.Error(c, apperror.BadRequest("TASK_IMPORT_INVALID", "无法读取请求体", err))
|
||
return
|
||
}
|
||
if len(body) == 0 {
|
||
response.Error(c, apperror.BadRequest("TASK_IMPORT_INVALID", "请求体为空", nil))
|
||
return
|
||
}
|
||
if len(body) > 1024*1024 { // 1MB 上限
|
||
c.Writer.WriteHeader(stdhttp.StatusRequestEntityTooLarge)
|
||
response.Error(c, apperror.BadRequest("TASK_IMPORT_TOO_LARGE", "导入文件过大(上限 1MB)", nil))
|
||
return
|
||
}
|
||
var payload service.ExportPayload
|
||
if err := json.Unmarshal(body, &payload); err != nil {
|
||
response.Error(c, apperror.BadRequest("TASK_IMPORT_INVALID", "JSON 格式不合法", err))
|
||
return
|
||
}
|
||
if len(payload.Tasks) == 0 {
|
||
response.Error(c, apperror.BadRequest("TASK_IMPORT_INVALID", "文件中未包含任何任务", nil))
|
||
return
|
||
}
|
||
results, err := h.service.Import(c.Request.Context(), payload)
|
||
if err != nil {
|
||
response.Error(c, err)
|
||
return
|
||
}
|
||
succ := 0
|
||
skipped := 0
|
||
for _, r := range results {
|
||
if r.Success && !r.Skipped {
|
||
succ++
|
||
} else if r.Skipped {
|
||
skipped++
|
||
}
|
||
}
|
||
recordAudit(c, h.auditService, "backup_task", "import", "backup_task", "", "",
|
||
fmt.Sprintf("从 JSON 导入任务:创建 %d / 跳过 %d / 失败 %d", succ, skipped, len(results)-succ-skipped))
|
||
response.Success(c, results)
|
||
}
|