先日、バックアップデータを復元する時に困った事が発生しました
以前より、ブログのデータなどをバックアップするように設定してたのですが
バックアップの容量だけで約2GB近くなっている事が判明しました
また、約2GBのバックアップデータを復元するにも時間が掛かる事が分かったので
バックアップの取得方法を変更する事にしました

バックアップ変更内容
Webごとにバックアップを取得するように設定変更しました

バックアップを取得する為のシェルになります
#!/bin/sh
## バックアップ保存日数
keepday=7
## バックアップ格納場所
bkdir=/mnt/backup
## ログ格納場所
logdir=/var/log/backup
## バックアップ日付
bk_date=`date +%Y%m%d`
## バックアップ削除日付
rm_date=`date “-d$keepday days ago” +%Y%m%d`
## バックアップログ
logfile=backup.log
## Backup Sub PG
## bkfile=バックアップ後ファイル名
## rmfile=指定記述を過ぎたバックアップを削除するファイル名
function backup {
bkfile=$bkdir/$2.$bk_date.tar.gz
tar cpzf $bkfile $1 >/dev/null 2>&1 >>$logdir/$logfile
if [ $? != 0 -o ! -e $bkfile ]; then
echo “バックアップに失敗しました($bkfile)” >>$logdir/$logfile
exit 1
fi
rmfile=$bkdir/$2.$rm_date.tar.gz
if [ -e $rmfile ]; then
rm -f $rmfile
echo “バックアップファイルを削除しました($rmfile)” >>$logdir/$logfile
fi
}
echo “Backup Start!” >>$logdir/$logfile
date >>$logdir/$logfile
## /var がバックアップ場所
## var が tar で圧縮した場合のファイル名
backup /var var
date >>$logdir/$logfile
echo “Backup End!” >>$logdir/$logfile