3 votes

Sauvegarder mon site web - comment le faire et quelle est la stratégie de sauvegarde recommandée ?

Je gère un site web LAMP sous Linux 10.0.4 LTS. Je suis un administrateur système débutant (je suis cependant un développeur) et je cherche des conseils sur la meilleure façon de mettre en œuvre la sauvegarde de mon site web. Ma base de données est mySQL et TOUTES mes tables de base de données utilisent le moteur de base de données InnoDb.

Ce sont les conditions requises pour la sauvegarde que je veux mettre en place :

  1. incorpore des sauvegardes incrémentielles et complètes de la base de données mysql J'aimerais avoir des sauvegardes incrémentales toutes les heures, mais aussi des sauvegardes quotidiennes, hebdomadaires et mensuelles. Mais il n'est pas clair dans mon esprit quelle rotation utiliser pour ces différents ensembles de données de sauvegarde - et aussi comment les gérer (et plus important encore, comment restaurer la base de données à partir d'un ensemble de sauvegardes complètes/incrémentales pour une date)

  2. Je voudrais compresser et crypter les données, afin de pouvoir les stocker à distance (Amazon S3).

  3. Je souhaite que cette opération soit entièrement automatisée (c'est-à-dire qu'elle soit exécutée comme une tâche cron).

Note : Mon serveur est "headless" dans le sens où il n'a pas de fenêtrage X ou autre interface graphique installée, donc je pense mettre en œuvre la sauvegarde nous un bash script. Alternativement, s'il existe un logiciel qui peut m'aider à exécuter ce type de sauvegarde, alors il doit pouvoir être exécuté à partir de la ligne de commande.

Les éléments que je dois sauvegarder sont :

  • base de données mysql
  • les fichiers du site web (dans un dossier spécifié. Idéalement, je voudrais laisser de côté certains fichiers qui sont générés automatiquement)
  • les fichiers de configuration
  • divers fichiers de données dans différents dossiers

Voici mes questions :

  1. Y a-t-il un logiciel existant que je peux utiliser pour faire cela, ou dois-je écrire le mien (bash script) ?

  2. Quelle est la stratégie de sauvegarde recommandée (en termes d'exécution horaire, quotidienne, hebdomadaire, etc.), et comment restaurer le site Web à partir d'un moment donné ?

Si je dois écrire mon propre script bash (étant également un novice en matière de script bash), je serai reconnaissant si quelqu'un pouvait fournir un script squelette pour m'aider à démarrer.

3voto

Patkos Csaba Points 1655

Utilicé rdiff-backup depuis des années, il est stable et vous pouvez lui faire confiance. Il fait des sauvegardes incrémentielles de tout ce que vous lui donnez. Donc je résoudrais votre problème avec un bash script faisant ce qui suit :

  1. mysqldump votre base de données
  2. archiver votre base de données
  3. rdiff-backup à un emplacement distant.

Rdiff-backup ne stocke qu'une seule fois les fichiers et toutes les sauvegardes futures sont des ajouts incrémentiels et vous pouvez revenir à n'importe quelle sauvegarde.

D'autres peuvent suggérer "rsnapshot" qui est un peu plus rapide mais il ne conserve pas le delta pour les fichiers, seulement pour les dossiers.

0voto

Maarten Points 405

Je suis un grand fan de DAR.

http://dar.linux.free.fr/

Elle présente des avantages et des inconvénients, dont beaucoup peuvent être découverts grâce à Google. Elle est assez gourmande en ressources processeur (comme la plupart des bonnes solutions incrémentielles), ce qui doit être pris en compte si le serveur est dans un environnement partagé (hébergement partagé ou VPS).

En ce qui concerne la stratégie, DAR est assez facile à mettre en œuvre dans une configuration bash/Python via CRON. Il y a quelques bash scripts pré-construits sur le site de DAR à examiner et à personnaliser selon les besoins.

Vous pouvez télécharger la sauvegarde DAR et les diffs vers S3 via de nombreuses applications S3 préconstruites.

Comme toujours, essayez plusieurs solutions pour trouver celle qui convient le mieux à vos besoins.

0voto

Paul J Points 101

Je gère 4 très petits sites web avec des bases de données qui changent rarement. Ma stratégie de sauvegarde est la suivante mysqldump Il s'agit de créer 4 bases de données, puis de zipper le tout (le propriétaire des sites Web utilise Windows, donc les tar sont hors de question), puis d'utiliser WGET sur la machine du propriétaire pour les télécharger. C'est facile, gratuit, et utilise des outils linux standards qui se cassent rarement.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X