@radius, une petite remarque à faire sur la manière dont gzip
travaille - gzip
est un algorithme de compression basé sur les blocs, et un algorithme assez simple. Le fichier entier n'est pas pris en compte dans la table de compression - seulement chaque bloc. D'autres algorithmes peuvent utiliser l'intégralité du contenu du fichier et il en existe quelques-uns qui utilisent le contenu de plusieurs blocs ou même de blocs de taille variable. Un exemple fascinant est lrzip
par le même auteur que rsync
!
Le point sur gzip
L'algorithme de l'UE .
Donc, en résumé, en utilisant rsync -z
donnera probablement le même compression comme gzip
d'abord - et si vous faites un transfert différentiel, c'est mieux à cause de rsync
L'algorithme de différenciation de l'UE.
Cela dit, je pense que l'on trouvera que les réguliers scp
bat facilement rsync
pour les transferts non différentiels - parce qu'il aura beaucoup moins de frais généraux que les rsync
(qui utiliserait l'algorithme de scp
sous le capot en tout cas !)
Si votre réseau hace devient un goulot d'étranglement, il faut alors utiliser la compression sur le fil.
Si votre disques sont le goulot d'étranglement, c'est là que le streaming dans un fichier compressé serait le mieux. (par exemple, netcat
d'une machine à l'autre, en passant par gzip -c
)
En général, si la vitesse est essentielle, la compression préalable d'un fichier existant est un gaspillage.
TIMTOWTDI, YMMV, IANAL, etc.