Rsync这工具,我用了快五年了。最开始是公司服务器之间同步代码,后来家里NAS备份也用上了,再后来搞异地容灾,还是它。说实话,Linux下文件同步的工具不少,但Rsync真的是最稳的那个。增量传输、断点续传、压缩传输,该有的功能都有,而且几乎每个Linux系统都自带。这篇记录一下我这些年用Rsync的经验,从基础用法到异地容灾,希望能帮到有同样需求的朋友。一、为什么选Rsync我试过的其他方案工具优点缺点为什么不用了scp简单每次都全量传输,慢数据量大就废了ftp图形界面友好不安全,不支持增量早就淘汰了rclone支持云存储对本地同步不够灵活云存储场景用各种GUI工具操作简单不稳定,容易断命令行更可靠Rsync的优势:增量传输:只传变化的部分,大文件也能秒同步断点续传:网络断了能接着传,不用从头来保持属性:权限、时间戳、软链接都能保留几乎零配置:系统自带,装完就能用二、基础用法(这些我天天用)本地同步最常用的命令:rsync -avP --delete /source/ /backup/参数说明:-a:归档模式,保持所有属性(权限、时间、软链接等)-v:显示详细信息,能看到哪些文件在同步-P:显示进度 + 断点续传--delete:删除目标目录里多余的文件(让两边完全一致)注意末尾斜杠的区别:# 有斜杠:同步source目录下的内容到target
rsync -av /source/ /target/
结果:/target/file1, /target/file2
无斜杠:同步source目录本身到target
rsync -av /source /target/
结果:/target/source/file1, /target/source/file2这个坑我踩过好几次,现在每次都检查斜杠。排除文件有些文件不需要同步,比如日志、缓存:rsync -avP \
--exclude='*.log' \
--exclude='cache/' \
--exclude='node_modules/' \
/source/ /backup/文件多了可以写到文件里:# exclude.txt
*.log
*.tmp
cache/
node_modules/
.DS_Store
使用
rsync -avP --exclude-from='exclude.txt' /source/ /backup/试运行不确定命令对不对,先试运行看看:rsync -avPn /source/ /backup/-n 参数表示dry-run,只显示会做什么,不实际执行。三、远程同步(SSH方式)基本用法# 推送到远程
rsync -avPz -e ssh /local/data/ user@remote:/remote/backup/
从远程拉取
rsync -avPz -e ssh user@remote:/remote/data/ /local/backup/-z 是压缩传输,能省带宽,但会消耗CPU。内网可以不加,外网建议加上。SSH密钥配置每次都输密码太麻烦,配置密钥免密登录:# 生成密钥(如果还没有)
ssh-keygen -t ed25519 -f ~/.ssh/backup_key -N ""
复制公钥到远程服务器
ssh-copy-id -i ~/.ssh/backup_key.pub user@remote
测试
ssh -i ~/.ssh/backup_key user@remote "echo OK"配置好后,rsync就能自动用密钥了:rsync -avPz -e "ssh -i ~/.ssh/backup_key" /local/ user@remote:/backup/指定SSH端口如果远程SSH不是默认22端口:rsync -avPz -e "ssh -p 22022" /local/ user@remote:/backup/四、自动化备份脚本基础备份脚本我写了个简单的脚本,每天凌晨自动备份:#!/bin/bash
backup.sh
SOURCE="/data/important/"
DEST="/backup/daily/"
LOG="/var/log/backup.log"
DATE=$(date +%Y-%m-%d_%H%M)
mkdir -p "$DEST"
echo "[LOG"
rsync -avP --delete \
--exclude='*.tmp' \
--exclude='cache/' \
"DEST" >> "$LOG" 2>&1
if [ $? -eq 0 ]; then
echo "[LOG"
else
echo "[LOG"
这里可以加告警通知
fi增量备份(硬链接)如果每天全量备份,磁盘很快就满了。用硬链接做增量备份:#!/bin/bash
incremental_backup.sh
SOURCE="/data/important/"
BACKUP_BASE="/backup"
DATE=$(date +%Y-%m-%d)
LATEST="$BACKUP_BASE/latest"
DEST="DATE"
如果有上次备份,用硬链接(节省空间)
if [ -d "$LATEST" ]; then
rsync -avP --delete \
--link-dest="$LATEST" \
"DEST"
else
rsync -avP --delete \
"DEST"
fi
更新latest链接
rm -f "$LATEST"
ln -s "LATEST"
删除7天前的备份
find "$BACKUP_BASE" -maxdepth 1 -type d -mtime +7 -exec rm -rf {} ;--link-dest 参数会让rsync对未变化的文件创建硬链接,而不是复制。这样多个备份版本占用的空间很小。定时任务crontab -e
每天凌晨2点备份
0 2 * * * /opt/scripts/backup.sh
每小时增量备份
0 * * * * /opt/scripts/incremental_backup.sh五、远程备份远程备份脚本#!/bin/bash
remote_backup.sh
SOURCE="/data/important/"
REMOTE_HOST="backup@192.168.1.200"
REMOTE_PATH="/backup/server1/"
SSH_KEY="/root/.ssh/backup_key"
LOG="/var/log/remote_backup.log"
DATE=$(date +%Y-%m-%d_%H%M)
echo "[LOG"
rsync -avPz --delete \
-e "ssh -i $SSH_KEY -o StrictHostKeyChecking=no" \
"REMOTE_HOST:LOG" 2>&1
if [ $? -eq 0 ]; then
echo "[LOG"
else
echo "[LOG"
发送告警
fi六、异地容灾方案需求场景公司在北京,灾备站点在上海。需要每天把关键数据同步过去。网络打通传统方案需要:两地都有公网IP配置VPN或专线复杂的网络配置我用的是星空组网工具,把两地服务器组到一个虚拟局域网。配置好后,北京服务器是 10.26.0.1,上海服务器是 10.26.0.2,直接用内网IP就能访问。异地备份脚本#!/bin/bash
disaster_recovery_backup.sh
LOCAL_DATA="/data"
REMOTE_HOST="root@10.26.0.2" # 异地服务器虚拟IP
REMOTE_PATH="/backup/beijing"
SSH_KEY="/root/.ssh/dr_key"
BANDWIDTH="5000" # 限速5MB/s,避免影响业务
LOG="/var/log/dr_backup.log"
要备份的目录
BACKUP_DIRS=(
"/data/mysql"
"/data/uploads"
"/etc/nginx"
"/opt/app/config"
)
echo "[LOG"
for dir in "${BACKUP_DIRS[@]}"; do
if [ -d "$dir" ]; then
target="(dirname $dir)"
echo "备份 target" >> "$LOG"
rsync -avPz --delete \
--bwlimit="$BANDWIDTH" \
-e "ssh -i $SSH_KEY" \
"REMOTE_HOST:LOG" 2>&1
fi
done
echo "[LOG"--bwlimit 限速很重要,不然会把带宽占满,影响正常业务。七、数据库备份同步MySQL备份同步#!/bin/bash
mysql_backup_sync.sh
MYSQL_HOST="localhost"
MYSQL_USER="backup"
MYSQL_PASS="password"
BACKUP_DIR="/backup/mysql"
REMOTE_HOST="root@10.26.0.2"
REMOTE_PATH="/backup/mysql"
DATE=$(date +%Y-%m-%d)
DUMP_FILE="DATE.sql.gz"
mkdir -p "$BACKUP_DIR"
导出数据库
mysqldump -h "MYSQL_USER" -p"$MYSQL_PASS" \
--all-databases --single-transaction --routines --triggers \
| gzip > "$DUMP_FILE"
同步到远程
rsync -avPz "REMOTE_HOST:$REMOTE_PATH/"
清理7天前的本地备份
find "$BACKUP_DIR" -name "*.sql.gz" -mtime +7 -deletePostgreSQL备份同步#!/bin/bash
pg_backup_sync.sh
PGHOST="localhost"
PGUSER="postgres"
BACKUP_DIR="/backup/postgres"
DATE=$(date +%Y-%m-%d)
导出所有数据库
pg_dumpall -h "PGUSER" | gzip > "DATE.sql.gz"
同步到远程
rsync -avPz "$BACKUP_DIR/" "root@10.26.0.2:/backup/postgres/"八、监控与告警备份状态检查写个脚本检查备份是否正常:#!/bin/bash
check_backup.sh
BACKUP_DIR="/backup/daily"
MAX_AGE_HOURS=25
检查最新备份时间
latest=BACKUP_DIR" -type f -mmin -$((MAX_AGE_HOURS * 60)) | head -1)
if [ -z "$latest" ]; then
echo "警告:备份超过${MAX_AGE_HOURS}小时未更新"
发送告警通知
fi备份大小监控#!/bin/bash
monitor_backup_size.sh
BACKUP_DIR="/backup"
THRESHOLD_GB=100
CURRENT_GB=BACKUP_DIR" | awk '{print int($1/1024/1024)}')
if [ "THRESHOLD_GB" ]; then
echo "备份目录已使用 {THRESHOLD_GB}GB"
fi九、踩过的坑1.权限问题保持权限同步需要root或sudo:sudo rsync -avP /source/ /target/远程同步时也要用root:rsync -avP -e "ssh" /source/ root@remote:/target/2.大文件同步大文件同步到一半断了,用 --partial 支持断点续传:rsync -avP --partial /source/bigfile.iso remote:/target/3.网络不稳定网络不稳定的时候,设置超时和自动重试:rsync -avPz --timeout=300 /source/ remote:/target/或者写个循环自动重试:while !rsync -avPz /source/ remote:/target/; do
echo "同步失败,5分钟后重试"
sleep 300
done十、总结Rsync真的是文件同步的瑞士军刀,用了这么多年,从来没让我失望过。常用命令总结:场景命令本地备份rsync -avP --delete /source/ /backup/远程推送rsync -avPz -e ssh /local/ user@remote:/backup/远程拉取rsync -avPz -e ssh user@remote:/data/ /local/增量备份rsync -avP --link-dest=/prev /source/ /backup/$DATE/限速同步rsync -avPz --bwlimit=1000 /source/ /target/建议:用SSH密钥免密登录设置定时任务自动执行配置限速避免影响业务定期验证备份可恢复有问题评论区交流~数据备份这事,没出事的时候觉得麻烦,出事了才知道值。