当前位置: 首页 > news >正文

给你10亿数据,如何做迁移?

前言

某次金融系统迁移项目中,原计划8小时完成的用户数据同步迟迟未能完成。

24小时后监控警报显示:由于全表扫描SELECT * FROM users导致源库CPU几乎熔毁,业务系统被迫停机8小时。

这让我深刻领悟到——10亿条数据不能用蛮力搬运,得用巧劲儿递接

今天这篇文章,跟大家一起聊聊10亿条数据,如何做迁移,希望对你会有所帮助。

一、分而治之

若把数据迁移比作吃蛋糕,没人能一口吞下整个十层蛋糕;

必须切成小块细嚼慢咽。

避坑案例:线程池滥用引发的血案

某团队用100个线程并发插入新库,结果目标库死锁频发。

最后发现是主键冲突导致——批处理必须兼顾顺序和扰动

分页迁移模板代码

long maxId = 0;  
int batchSize = 1000;  
while (true) {  List<User> users = jdbcTemplate.query(  "SELECT * FROM users WHERE id > ? ORDER BY id LIMIT ?",  new BeanPropertyRowMapper<>(User.class),  maxId, batchSize  );  if (users.isEmpty()) {break;  }// 批量插入新库(注意关闭自动提交)  jdbcTemplate.batchUpdate(  "INSERT INTO new_users VALUES (?,?,?)",  users.stream().map(u -> new Object[]{u.id, u.name, u.email}).collect(Collectors.toList())  );  maxId = users.get(users.size()-1).getId();  
}

避坑指南

  • 每批取递增ID而不是OFFSET,避免越往后扫描越慢
  • 批处理大小根据目标库写入能力动态调整(500-5000条/批)

二、双写

经典方案是停机迁移,但对10亿数据来说停机成本难以承受,双写方案才是王道。

双写的三种段位:

  1. 青铜级:先停写旧库→导数据→开新库 →风险:停机时间不可控
  2. 黄金级:同步双写+全量迁移→差异对比→切流 →优点:数据零丢失
  3. 王者级:逆向同步兜底(新库→旧库回写),应对切流后异常场景

当然双写分为:

  • 同步双写
  • 异步双写

同步双写实时性更好,但性能较差。

异步双写实时性差,但性能更好。

我们这里考虑使用异步双写。

异步双写架构如图所示:
image

代码实现核心逻辑

  1. 开启双写开关
@Transactional  
public void createUser(User user) {  // 旧库主写  oldUserRepo.save(user);  // 异步写新库(允许延迟)  executor.submit(() -> {  try {  newUserRepo.save(user);  } catch (Exception e) {  log.error("新库写入失败:{}", user.getId());  retryQueue.add(user);  }  });  
}
  1. 差异定时校验
// 每天凌晨校验差异数据  
@Scheduled(cron = "0 0 3 * * ?")  
public void checkDiff() {  long maxOldId = oldUserRepo.findMaxId();  long maxNewId = newUserRepo.findMaxId();  if (maxOldId != maxNewId) {  log.warn("数据主键最大不一致,旧库{} vs 新库{}", maxOldId, maxNewId);  repairService.fixData();  }  
}

三、用好工具

不同场景需匹配不同的工具链,好比搬家时家具用货车,细软用包裹。

工具选型对照表

工具名称 适用场景 10亿数据速度参考
mysqldump 小型表全量导出 不建议(可能天级)
MySQL Shell InnoDB并行导出 约2-4小时
DataX 多源异构迁移 依赖资源配置
Spark 跨集群大数据量ETL 30分钟-2小时

Spark迁移核心代码片段

val jdbcDF = spark.read  .format("jdbc")  .option("url", "jdbc:mysql://source:3306/db")  .option("dbtable", "users")  .option("partitionColumn", "id")  .option("numPartitions", 100) // 按主键切分100个区  .load()  jdbcDF.write  .format("jdbc")  .option("url", "jdbc:mysql://target:3306/db")  .option("dbtable", "new_users")  .mode(SaveMode.Append)  .save()

避坑经验

  • 分区数量应接近Spark执行器核数,太多反而降低效率
  • 分区字段必须是索引列,防止全表扫

四、影子测试

迁移后的数据一致性验证,好比宇航员出舱前的模拟训练。

影子库验证流程

  1. 生产流量同时写入新&旧双库(影子库)
  2. 对比新旧库数据一致性(抽样与全量结合)
  3. 验证新库查询性能指标(TP99/TP95延迟)

自动化对比脚本示例

def check_row_count(old_conn, new_conn):  old_cnt = old_conn.execute("SELECT COUNT(*) FROM users").scalar()  new_cnt = new_conn.execute("SELECT COUNT(*) FROM new_users").scalar()  assert old_cnt == new_cnt, f"行数不一致: old={old_cnt}, new={new_cnt}"  def check_data_sample(old_conn, new_conn):  sample_ids = old_conn.execute("SELECT id FROM users TABLESAMPLE BERNOULLI(0.1)").fetchall()  for id in sample_ids:  old_row = old_conn.execute(f"SELECT * FROM users WHERE id = {id}").fetchone()  new_row = new_conn.execute(f"SELECT * FROM new_users WHERE id = {id}").fetchone()  assert old_row == new_row, f"数据不一致, id={id}"

五、回滚

即便做好万全准备,也要设想失败场景的回滚方案——迁移如跳伞,备份伞必须备好。

回滚预案关键点

  1. 备份快照:迁移前全量快照(物理备份+ Binlog点位)
  2. 流量回切:准备路由配置秒级切换旧库
  3. 数据标记:新库数据打标,便于清理脏数据

快速回滚脚本

# 恢复旧库数据  
mysql -h旧库 < backup.sql  # 应用Binlog增量  
mysqlbinlog --start-position=154 ./binlog.000001 | mysql -h旧库  # 切换DNS解析  
aws route53 change-resource-record-sets --cli-input-json file://switch_to_old.json

总结

处理10亿数据的核心心法:

  1. 分而治之:拆解问题比解决问题更重要
  2. 逐步递进:通过灰度验证逐步放大流量
  3. 守牢底线:回滚方案必须真实演练过

记住——没有百分百成功的迁移,只有百分百准备的Plan B!

搬运数据如同高空走钢丝,你的安全保障(备份、监控、熔断)就是那根救命绳。🪂

最后说一句(求关注,别白嫖我)

如果这篇文章对您有所帮助,或者有所启发的话,帮忙关注一下我的同名公众号:苏三说技术,您的支持是我坚持写作最大的动力。

求一键三连:点赞、转发、在看。

关注公众号:【苏三说技术】,在公众号中回复:进大厂,可以免费获取我最近整理的10万字的面试宝典,好多小伙伴靠这个宝典拿到了多家大厂的offer。

更多项目实战在我的技术网站:http://www.susan.net.cn/project

http://www.jsqmd.com/news/31998/

相关文章:

  • 军工软件工业化突围: 重构智能版本管理的五大核心路径
  • 2025年评价高的电镀重防腐涂料品牌厂家排行榜
  • 文字识别系统(待修改)
  • 2025年口碑好的建筑漫游动画制作值得信赖品牌榜
  • Flutter与Dart结合AI开发实战 - 教程
  • excel 将两个表格内容合并到一个表格
  • C++ 随笔:用两个有序集合维护滑动窗口
  • 2025年靠谱的台车炉优质厂家推荐榜单
  • 2025年五大能处理诈骗案件的律师推荐
  • ESXI 70 VCenter7.0
  • 后端框架数据对比
  • 2025年靠谱的智能无主灯办公楼系统厂家推荐及选择指南
  • 2025年质量好的地井空调通风软管厂家推荐及选购参考榜
  • 太空舱民宿受欢迎的有哪些?太空舱民宿性价比高的有哪些?
  • 2025年质量好的比例阀厂家推荐及选购指南
  • 2025年质量好的150吨地磅厂家推荐及选购指南
  • 2025年五大靠谱律师团队推荐,介绍陈美娥律师团队手机号
  • 2025年11月脸颊有晒斑产品推荐榜:临床验证淡斑精华实测排名
  • 2025年质量好的客厅壁炉厂家推荐及选择指南
  • 深入解析:Chrome扩展的“秘密通道”:深入解析Native Messaging的安全风险与防御
  • 2025年度太空舱生产厂售后排名:哪家售后好且更值得选
  • 2025年靠谱的阻尼家具滑轨厂家最新推荐权威榜
  • 2025年北京美国本科申请机构权威推荐榜单:美国留学申请/美国本科留学/美国藤校申请源头机构精选
  • CRMEB标准版小票打印的业务逻辑与驱动架构设计
  • 2025年比较好的全拉出阻尼隐藏轨厂家推荐及选购指南
  • 2025年评价高的灯饰灯具PC管优质厂家推荐榜单
  • 2025年口碑好的护手霜厂家实力及用户口碑排行榜
  • 死磕 Elasticsearch 方法论
  • 2025进出线电抗器厂家哪家好?电抗器厂家权威推荐榜单
  • 2025 年碟式离心机制造厂家最新推荐榜单:权威协会测评精选优质企业,为工业生产采购提供专业参考DB440 系列 / DB460 系列 / DB550 系列 / 专业碟式离心机推荐