1 votes

Windows copie-t-il toujours chaque fichier directement sur le disque, contrairement à Unix ?

Unix a été conçu à l'origine pour effectuer les opérations du système de fichiers en mémoire, et pour ne mettre à jour les blocs de disque que toutes les 30 secondes pendant sync . Il en résulte une expérience utilisateur beaucoup plus rapide que celle de MSDOS, il y a de nombreuses années, qui accédait directement aux blocs de disque pour chaque opération du système de fichiers. Mais aujourd'hui, sous Windows 7, je constate toujours que la copie d'un grand nombre de petits fichiers prend beaucoup plus de temps que la copie d'un gros fichier de même taille.

Par exemple : le répertoire Publish d'un projet web Visual Studio C# Asp contient 2000 fichiers, total 150 MB, zippé (7Zip) 90 MB.

  • Copiez l'ensemble du répertoire sur le même disque : 30 secondes
  • Zip : 5 secondes
  • Copier un fichier zippé : 2 secondes
  • Dézipper : 65 secondes. (Sur une autre machine : 20 secondes)

D'un point de vue informatique, le dézippage devrait être plus rapide que le zippage. Ainsi, la décompression pourrait être dominée par les performances du système de fichiers.

La fragmentation du disque peut être un facteur, et la raison pour laquelle une autre machine similaire peut être plus rapide dans la gestion de nombreuses opérations du système de fichiers. Mais si la fragmentation du disque est un facteur ici, cela pourrait indiquer que l'utilisateur doit attendre que chaque opération du système de fichiers soit terminée avant que la suivante ne commence, c'est-à-dire comme le vieux DOS.

0voto

MSalters Points 8049

Le comportement (accès non mis en cache) que vous décrivez n'est plus utilisé depuis Windows 3.11. Cependant, Windows vide son cache de manière plus agressive qu'Unix. C'est dû à leurs racines respectives. Les machines Unix étaient supposées être construites avec du matériel fiable et puissant. Les PC Windows étaient des boîtes bon marché, qui tombaient en panne bien plus souvent. Ce n'était pas seulement un problème de système d'exploitation, les onduleurs sont beaucoup moins courants sur les PC et les disques IDE bon marché étaient moins fiables en cas de panne de courant que les disques SCSI des serveurs coûteux. L'ancien format FAT n'a pas aidé non plus - pas de journalisation, donc des possibilités de corruption massives. Le format NTFS est bien meilleur. Qu'avez-vous utilisé pour le test ?

0voto

Roland Points 337

D'après les informations que j'ai trouvées moi-même (voir ci-dessus) et celles des contributeurs ci-dessus, je conclus que les modernes Windows peut faire de la mise en mémoire tampon/cache sur le disque mais que celle-ci est souvent désactivée. Les raisons en sont que NTFS n'a pas de journalisation. Les performances de Windows peuvent être d'une importance secondaire par rapport aux bénéfices : qualité contre temps de mise sur le marché. Avec Unix/Linux, qui sont moins commerciaux, la qualité/performance est beaucoup plus importante.

Coïncidence : un collègue de travail est en train de compresser quelques Go de fichiers pour essayer de les copier plus rapidement, et il regarde une boîte de dialogue Windows Archive indiquant "10 secondes à tenir" depuis une demi-heure, avec un fichier zip qui s'agrandit lentement (pas gelé). Mais cela pourrait aussi être un disque défectueux... :-)

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X