Je gère un site web qui utilise beaucoup les fichiers téléchargés par les utilisateurs. Ces fichiers ne sont servis aux utilisateurs qu'après une vérification des autorisations par une application Django.
J'ai maintenant besoin d'évoluer horizontalement et de créer une autre instance d'un serveur web. Elle doit avoir accès à la même structure de répertoires que celle qui contient les fichiers téléchargés. Ce dont j'ai probablement besoin est un système de fichiers distribué.
J'ai réfléchi :
- NFS - Je l'ai fait il y a 15 ans et, même à l'époque, je trouvais que cette norme était tout à fait dépassée. Bien que robuste et facile à mettre en place, l'absence de cryptage des transferts et la nécessité de synchroniser les UID/GID entre les serveurs créent plus de problèmes qu'ils n'en résolvent.
- périodique rsync - ressemble à un sale hack et entraînerait probablement des problèmes de désynchronisation. Et prenez N fois la taille de stockage pour N serveurs.
- sshfs - eh bien, si elle a les mêmes performances que scp, je ne veux pas en entendre parler en fait.
- LustreFS , Gluster Je n'ai jamais utilisé ces systèmes et je ne sais pas lequel répondrait à mes besoins. La redondance n'est pas critique (nous avons des sauvegardes fréquentes) mais j'aimerais que le trafic entre les serveurs soit crypté.
Que recommanderiez-vous ?