Ce n'est pas une solution bon marché, mais si vos données sont vraiment critiques, voici comment procéder : démarrez un fichier Instance Amazon EC2 et y synchroniser périodiquement le contenu.
Amazon EC2 est leur fournisseur d'hébergement de virtualisation. Vous pouvez créer des instances Linux, Windows, etc. et exécuter tout ce que vous voulez. Vous payez à l'heure et vous disposez d'un espace de stockage local assez important pour ce serveur. Par exemple, j'utilise l'instance de taille "large", qui est livrée avec 850 Go d'espace disque local.
L'avantage est qu'il se trouve sur le même réseau que S3 et que vous bénéficiez de transferts illimités entre S3 et EC2. J'utilise les 20 Disque de la jungle sur une instance Windows EC2, ce qui me permet d'accéder à mes buckets S3 comme s'il s'agissait de dossiers de disques locaux. Je peux ensuite programmer des fichiers batch pour copier des données de S3 vers mon espace disque EC2 local. Vous pouvez l'automatiser pour conserver des sauvegardes toutes les heures si vous le souhaitez, ou si vous voulez jouer, configurer JungleDisk (ou ses équivalents Linux) pour qu'il se synchronise une fois par heure environ. Si quelqu'un supprime un fichier, vous avez au moins quelques minutes pour le récupérer sur EC2. Je recommande toutefois les sauvegardes régulières par script - il est facile de conserver quelques jours de sauvegardes si vous les comprimez sur un volume de 850 Go.
C'est très utile pour l'expédition des journaux du serveur SQL, mais je peux voir comment cela permettrait d'atteindre votre objectif également.