Sur un forum non technique, quelqu'un m'a récemment dit que le stockage de fichiers imbriqués dans un trop grand nombre de sous-dossiers pouvait ralentir un ordinateur. Est-ce vrai ? C'est assez logique, puisque l'ordinateur aurait un index de système de fichiers plus grand pour trier les fichiers, mais je n'ai trouvé aucune information à ce sujet en ligne. Je n'ai pas vraiment remarqué de différence sur mon ordinateur en créant beaucoup de dossiers, et je n'ai jamais entendu cela auparavant (et je lis beaucoup sur la technologie), donc je suis un peu sceptique. Est-ce que quelqu'un pourrait avoir la gentillesse de m'indiquer des informations pertinentes ?
Réponses
Trop de publicités?D'après ce que je sais, il est préférable d'avoir de nombreux dossiers contenant un petit nombre de fichiers, plutôt qu'un ou plusieurs dossiers contenant un grand nombre de fichiers.
Chaque dossier contient des informations d'index pour chaque fichier/dossier (liens). Ainsi, si vous avez, disons, 1 000 000 de fichiers dans ce dossier, il y aura 1 000 000 d'entrées stockées, ce qui ralentira le chargement.
Mais si vous avez 10 dossiers contenant chacun 100 000 fichiers, il n'y aura que 10 entrées stockées et 100 000 dans chacun des sous-dossiers.
Ce n'est qu'un simple exemple, mais j'espère que vous avez compris.
Je suppose que si vous avez des millions de dossiers avec des fichiers/dossiers, cela posera un problème.
A lire également : Le fait d'avoir des dossiers volumineux pose-t-il des problèmes ?
En général, non, mais le comportement du système de fichiers est très variable et il y a donc des circonstances où cela peut faire une différence.
Pour le fonctionnement quotidien, cela n'a d'importance que pour les répertoires auxquels vous (ou les applications en votre nom) accédez. Avec un grand nombre de fichiers et de sous-répertoires (plusieurs milliers ou plus) dans un répertoire, vous pouvez rencontrer des problèmes de performance avec les systèmes de fichiers basés sur la FAT, car les listes de répertoires y sont stockées de manière relativement peu structurée, ce qui n'est pas le cas avec le NTFS, car les listes sont stockées dans une structure indexée plus efficace pour la recherche et la modification (si vous utilisez également Linux, il existe une différence similaire entre les systèmes de fichiers ext2 et ext3/ext4/newer). Il existe des limites absolues au nombre d'objets dans un répertoire donné, mais il est rare que vous les atteigniez (elles sont de l'ordre de 32 000 pour FAT32 et de 4 000 000 000 pour NTFS).
Si votre structure de répertoire est profonde (comme c:\this\is\a\directory\structure\with\many\many\many\many\levels\my\god\look\how\deep\it\goes
) et/ou contient des noms longs, vous atteindrez l'ancienne limite de 260 caractères pour les chemins d'accès. L'API Windows et les bibliothèques et outils intégrés (y compris l'Explorateur) peuvent prendre en charge des chemins beaucoup plus longs depuis les versions récentes, mais vous constaterez qu'un grand nombre d'utilitaires tiers supposent et appliquent toujours la limite (ou tombent s'ils rencontrent un chemin d'accès plus long que cette limite). De même, certains outils tiers se comportent de manière inefficace lorsqu'ils examinent un seul répertoire contenant un grand nombre de fichiers/sous-répertoires.
Si vous avez beaucoup d'objets dans un système de fichiers (fichiers, répertoires ou les deux), toute opération à l'échelle du système de fichiers, telle qu'un contrôle de cohérence via la fonction chckdsk
prendra bien sûr plus de temps.