Je dois migrer environ 1 To de données composées de petits fichiers (la plupart de moins de 100 Ko) vers un autre serveur. Je n'ai pas encore fait l'inventaire complet des fichiers, mais les estimations se situent entre 1 et 2 millions.
La copie initiale à l'aide de SCP a pris plus d'une semaine. Maintenant, nous devons synchroniser les changements. Des centaines, voire des milliers de fichiers sont ajoutés chaque jour.
J'ai essayé d'utiliser rsync (v3) mais cela prend trop de temps. Le temps que cela se termine, nous aurons à nouveau des données non synchronisées.
J'ai vu des questions similaires ici mais elles sont un peu plus anciennes et je me demande s'il existe de nouveaux outils pour faciliter ce processus.
Les problèmes sont d'autant plus compliqués que les données sources se trouvent sur un système iSCSI partagé dont les performances de lecture sont médiocres.
La dernière stratégie consiste peut-être à refaire la migration des données et à demander aux développeurs d'écrire un outil pour enregistrer tous les nouveaux fichiers ajoutés pendant le processus de migration. La structure des répertoires est basée sur un identifiant unique et est très large et profonde. Les nouveaux fichiers sont donc dispersés dans cette structure et réécrire l'application pour placer les nouveaux fichiers dans un répertoire spécifique ne fonctionnera pas.
Toute stratégie est la bienvenue.
Le système d'exploitation est RHEL 5 et va devenir RHEL 6.
0 votes
Au lieu de copier sur un nouveau serveur, pourquoi ne pas utiliser un NAS que les deux serveurs montent ?
0 votes
Avez-vous besoin d'une synchronisation en temps réel ou quasi réel, ou la machine secondaire n'est-elle qu'une sauvegarde ?
0 votes
Cela ressemble à une migration complète d'un système à un autre.
0 votes
Le matériel est situé chez un fournisseur d'infrastructure à la demande avec un budget limité. Idéalement, cela se ferait sur un SAN avec réplication LUN mais ce n'est pas prévu. Il s'agit d'un site immobilier où nous déplaçons des millions d'images vers un système dédié pour gérer les besoins de stockage croissants et les problèmes de performance.
0 votes
Les développeurs vont retirer les données des 30 derniers jours de la source primaire. Apparemment, c'est plus facile que de creuser dans la base de données. Merci pour les suggestions.
0 votes
Comment les dossiers sont-ils organisés ? Vous pouvez peut-être lancer plusieurs processus rsync par répertoire, en supposant qu'aucun répertoire supplémentaire ne soit ajouté.
0 votes
BTW, est-ce que NFS est une option ?