Backup na Nuvem

329 views
Skip to first unread message

Jeferson

unread,
Dec 5, 2016, 1:23:29 PM12/5/16
to Bacula Backup-Pt-Br
boa tarde, possuo um servidor de bacula na empresa, gostaria de jogar um backup para fora da empresa, alguém ja utilizou google drive,one drive ou dropbox como storage? ou tem outra ideia

Allan Patrick Ksiaskiewcz

unread,
Dec 5, 2016, 3:45:28 PM12/5/16
to bacula-ba...@googlegroups.com

Já usei o amazon para arquivos pequenos, veja abaixo uma estimativa de tempo para transferência de 02TB:

Considerando links Full, onde download/upload são iguais:
02Mb – 2.387 Horas (100-Dias)
04Mb – 1.193 Horas (50D-ias)
10Mb – 488 Horas (21-Dias)
100Mb – 48Horas (02-Dias)
01Gb – 05Horas
Detalhes em: http://www.advantage.inf.br/artigos/como-fazer-backup-nas-nuvens-em-cloud/

Na Amazon de maneira resumida fiz conforme abaixo:

- No IAM - Identity and Access Management
Defini chaves de autenticação para usuarios. Após em Permissions, "attach" criei a police conforme abaixo:
{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "s3:GetBucketLocation",
        "s3:ListAllMyBuckets"
      ],
      "Resource": "arn:aws:s3:::*"
    },
    {
      "Effect": "Allow",
      "Action": ["s3:ListBucket"],
      "Resource": ["arn:aws:s3:::tf01"]
    },
    {
      "Effect": "Allow",
      "Action": [
        "s3:PutObject",
        "s3:GetObject",
        "s3:DeleteObject"
      ],
      "Resource": ["arn:aws:s3:::tf01/*"]
    }
  ]
}

Dando permissões nos buckets consigo determinar limites para usuarios/buckets.

Entrada do fstab:
 s3fs#tf01 /bucket/tf01 fuse _netdev,allow_other,nonempty,use_cache=/tmp 0 0

Antes de iniciar o backup fiz um script para executar antes do backup:

#!/bin/bash
bucket=bucket-client
sudo /usr/local/bin/s3fs -o allow_other,use_cache=/tmp $bucket -o allow_other -o nonempty /bucket/$bucket/ -opasswd_file=/etc/passwd-s3fs

No arquivo: /etc/passwd-s3fs contem a senha que é gerada no painel da Amazon. Segue abaixo exemplo referencial de um Job:

Job {
  Name = "bkp-bd-fd"
  client = bd-fd
  Level = Incremental
  JobDefs = "jobdefs-oracle-linux"
  Maximum Concurrent Jobs = 20

RunScript {
     Command = "/etc/bareos/scripts/umount-bucket.sh"
     RunsWhen = After
     RunsOnFailure = no
     RunsOnClient = no
     RunsOnSuccess = yes
  }

  RunScript {
     Command = "/etc/bareos/scripts/mount-bucket.sh"
     RunsWhen = Before
     RunsOnFailure = no
     RunsOnClient = no
     RunsOnSuccess = yes
  }
 Allow Duplicate Jobs = no
  Max Run Time = 23 hours
}


Em 05/12/2016 16:23, Jeferson escreveu:
boa tarde, possuo um servidor de bacula na empresa, gostaria de jogar um backup para fora da empresa, alguém ja utilizou google drive,one drive ou dropbox como storage? ou tem outra ideia
--
Você recebeu essa mensagem porque está inscrito no grupo "Bacula Backup-Pt-Br" dos Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para bacula-backup-p...@googlegroups.com.
Para postar nesse grupo, envie um e-mail para bacula-ba...@googlegroups.com.
Acesse esse grupo em https://groups.google.com/group/bacula-backup-pt-br.
Para ver essa discussão na Web, acesse https://groups.google.com/d/msgid/bacula-backup-pt-br/476806a1-f2e4-47d1-8c7f-fff6d9d4aaa9%40googlegroups.com.
Para mais opções, acesse https://groups.google.com/d/optout.

Diogo Gastaldi

unread,
Dec 6, 2016, 6:51:58 AM12/6/16
to Bacula Backup-Pt-Br
Bom dia

Creio que funcionaria, se o backup não for muito grande, creio que backup incremental funcionaria.

Diogo Gastaldi
Reply all
Reply to author
Forward
0 new messages