Amazon AWS S3 にMacのデータをバックアップ
Time Machineのように、障害発生時用にバックアップも取れますが、容量不足のHDDの使わないデータを保管しておくこともできます。
s3sync という rubyで作られたプログラムが便利。
s3syncを持ってきて解凍。
サンプルを参考にs3config.ymlを/etc/s3conf/ディレクトリにコピーする。
こんな風な内容
AWS_ACCESS_KEY_ID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
AWS_SECRET_ACCESS_KEY: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
AWS_CALLING_FORMAT: SUBDOMAIN
こんなコマンドで、testディレクトリの中身をS3のmac-backupというBucketの中のtestディレクトリとしてコピー
ruby s3sync/s3sync.rb -dr ~/mydata/test/ mac-backup:test
逆にローカルのMacにデータを戻してやる場合
ruby s3sync/s3sync.rb -dr mac-backup:test/ ~/mydata/test
ディレクトリの最後の / の付け方を注意しないと、入れ子にディレクトリ構造がずれてしまう。
料金は、
ひとまず、100GBを1ヶ月預けると($1 = 100円で計算)
ディクスペース : 1000円
取り出し等のコマンド1000回で、0.5円くらい。 (一度に1000個のファイルを挙げる場合は1000回分のコマンドになるはず)
転送料金
アップロード : タダ。
ダウンロード : 2000円
------------------------
100GB退避させ、取り出すのに、往復で3000円。
HDDを調達してくる面倒を思えば、手軽。
さらに「低冗長化ストレージ」「Glacier ストレージ」というプランもあるので、HDDのデータで消すのは惜しいけど、S3にアップロードして預けっぱなしでよければ、さらに安価な使い方もできる。
最近、Macのディスク容量が逼迫しているせいか、スワップの調子がおかしいので、一旦データを退避させて様子を見てみる。または、買い替えようか検討中。
s3sync という rubyで作られたプログラムが便利。
s3syncを持ってきて解凍。
サンプルを参考にs3config.ymlを/etc/s3conf/ディレクトリにコピーする。
こんな風な内容
AWS_ACCESS_KEY_ID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
AWS_SECRET_ACCESS_KEY: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
AWS_CALLING_FORMAT: SUBDOMAIN
こんなコマンドで、testディレクトリの中身をS3のmac-backupというBucketの中のtestディレクトリとしてコピー
ruby s3sync/s3sync.rb -dr ~/mydata/test/ mac-backup:test
逆にローカルのMacにデータを戻してやる場合
ruby s3sync/s3sync.rb -dr mac-backup:test/ ~/mydata/test
ディレクトリの最後の / の付け方を注意しないと、入れ子にディレクトリ構造がずれてしまう。
料金は、
ひとまず、100GBを1ヶ月預けると($1 = 100円で計算)
ディクスペース : 1000円
取り出し等のコマンド1000回で、0.5円くらい。 (一度に1000個のファイルを挙げる場合は1000回分のコマンドになるはず)
転送料金
アップロード : タダ。
ダウンロード : 2000円
------------------------
100GB退避させ、取り出すのに、往復で3000円。
HDDを調達してくる面倒を思えば、手軽。
さらに「低冗長化ストレージ」「Glacier ストレージ」というプランもあるので、HDDのデータで消すのは惜しいけど、S3にアップロードして預けっぱなしでよければ、さらに安価な使い方もできる。
最近、Macのディスク容量が逼迫しているせいか、スワップの調子がおかしいので、一旦データを退避させて様子を見てみる。または、買い替えようか検討中。
by sato025
| 2013-04-05 00:52
| EC2