122 votes

Combien d'espace faut-il laisser libre sur le disque dur ou le disque SSD ?

Dans la presse technologique informelle (c'est-à-dire journalistique), ainsi que dans les blogs et les forums de discussion technologiques en ligne, on trouve souvent des conseils anecdotiques invitant à laisser de l'espace libre sur les disques durs ou les lecteurs à état solide. Diverses raisons sont invoquées, ou parfois aucune raison. En tant que telles, ces affirmations, bien que raisonnables dans la pratique, ont un air de mythe. Par exemple :

  • Une fois que votre ou vos disques sont remplis à 80%, vous devriez considérer que complet et vous devriez immédiatement soit effacer des choses, soit faire une mise à jour. S'ils frappent 90% Vous devez considérer que votre pantalon personnel est en feu et réagir avec la rapidité nécessaire pour y remédier. ( Source : .)

  • Pour que le ramassage des ordures soit le plus efficace possible, le conseil traditionnel est de garder 20 à 30 % de votre disque vide ( Source : .)

  • On m'a dit que je devais laisser environ 20 % de disque dur libre pour de meilleures performances, que le disque dur ralentit vraiment lorsqu'il est presque plein. ( Source : .)

  • Vous devez laisser de la place pour les fichiers d'échange et les fichiers temporaires. Je laisse actuellement 33 % d'espace libre et je m'engage à ne pas descendre en dessous de 10 Go d'espace libre sur le disque dur. ( Source : .)

  • Je dirais généralement 15%, mais avec la taille des disques durs d'aujourd'hui, tant que vous en avez assez pour vos fichiers temporaires et votre fichier d'échange, vous êtes techniquement en sécurité. ( Source : .)

  • Je recommanderais 10% et plus sous Windows car defrag ne fonctionnera pas s'il n'y a pas autant de place libre sur le disque lorsque vous le lancez. ( Source : .)

  • Vous voulez généralement laisser environ 10% de libre pour éviter la fragmentation ( Source : .)

  • Si votre disque est constamment rempli à plus de 75 ou 80 %, vous pouvez envisager de passer à un SSD plus grand. ( Source : .)

Des recherches ont-elles été menées, de préférence publiées dans une revue à comité de lecture, sur le pourcentage ou la quantité absolue d'espace libre requis par des combinaisons spécifiques de systèmes d'exploitation, de systèmes de fichiers et de technologies de stockage (par exemple, plateau magnétique contre état solide) ? (Idéalement, une telle recherche expliquerait également la raison pour laquelle il ne faut pas dépasser la quantité spécifique d'espace utilisé, par exemple pour éviter que le système soit à court d'espace de stockage). espace de permutation ou pour éviter une perte de performance).

Si vous avez connaissance d'une étude de ce type, je vous serais reconnaissant de me fournir un lien vers celle-ci ainsi qu'un bref résumé de ses résultats. Merci !

7voto

Klaws Points 302

Les "règles" varient en fonction de vos besoins. Et il y a des cas particuliers, comme par exemple ZFS : "A 90% de capacité, ZFS passe d'une optimisation basée sur les performances à une optimisation basée sur l'espace, ce qui a des implications massives sur les performances". Oui, c'est un design Il s'agit d'un aspect de ZFS... et non d'un élément dérivé d'une observation ou d'une preuve anecdotique. Évidemment, le problème est moins important si votre pool de stockage ZFS se compose uniquement de disques SSD. Cependant, même avec des disques tournants, vous pouvez atteindre 99% ou 100% lorsque vous avez affaire à un stockage statique et que vous n'avez pas besoin de performances de pointe - par exemple, votre collection personnelle de films préférés de tous les temps, qui ne change jamais et où la sécurité est la priorité 1.

Ensuite, btrfs - un cas extrême : lorsque l'espace libre devient trop faible (quelques MByte), vous pouvez atteindre le point de non-retour. Non, la suppression des fichiers n'est pas une option, car vous ne pouvez pas. Il n'y a tout simplement pas assez d'espace pour supprimer des fichiers. btrfs est un système de fichiers COW (copy-on-write), et vous pouvez atteindre un point où vous ne pouvez plus modifier les métadonnées. À ce stade, vous pouvez toujours ajouter de l'espace de stockage supplémentaire à votre système de fichiers (une clé USB pourrait fonctionner), puis supprimer des fichiers du système de fichiers étendu, puis réduire le système de fichiers et supprimer à nouveau l'espace de stockage supplémentaire). Encore une fois, il s'agit d'un aspect causé par le design du système de fichiers.

Les personnes qui peuvent vous fournir des "données réelles (sérieuses)" sont probablement celles qui s'occupent du "stockage réel (sérieux)". La réponse (excellente) de Twisty mentionne des matrices hybrides (composées de quantités massives de disques bon marché à rotation lente, de beaucoup de disques à rotation rapide, de nombreux SSD...) qui sont exploitées dans un environnement d'entreprise où le principal facteur limitant est la vitesse à laquelle l'administrateur est capable de commander des mises à niveau. Passer de 16T à 35T peut prendre 6 mois...donc vous vous retrouvez avec des rapports sérieusement étayés qui vous suggèrent de régler votre alarme à 50%.

4voto

BoltClock Points 249668

Il y a beaucoup, beaucoup de facteurs qui contribuent au résultat dans des proportions très spécifiques. Il n'y a donc pas de chiffre précis, on ne peut le mesurer qu'en fonction de ces paramètres. (C'est probablement la raison pour laquelle d'autres utilisateurs ne signalent aucune recherche spécifique sur ce sujet précis - trop de variables pour compiler quoi que ce soit de concluant).

  • Matériel informatique

    • Le disque dur a tous ses secteurs alloués à tout moment. Il ne se soucie donc absolument pas de savoir combien d'entre eux contiennent des données utilisateur actuelles. (Pour le contrôleur, tous les secteurs contiennent des données à tout moment, il se contente de les lire et de les écraser comme on le lui demande).
    • Le contrôleur du SSD, quant à lui, (dé)attribue ses secteurs de manière dynamique, à la manière d'un système de fichiers. Ce qui rend ce travail plus difficile à des utilisations plus élevées. La difficulté et l'impact sur les performances observables dépendent de plusieurs facteurs :
      • Les performances du contrôleur et la qualité des algorithmes
      • Charge d'écriture
      • Dans une certaine mesure, la charge globale (pour donner au contrôleur le temps de collecter les déchets).
      • Surprovisionnement de l'espace (certains fabricants laissent même le client le choisir avant la commande ou le modifier dynamiquement)
  • Système de fichiers

    • Les différents systèmes de fichiers sont conçus pour des charges et des exigences de traitement de l'hôte différentes. Les paramètres de format permettent d'y remédier dans une certaine mesure.
    • Les performances d'écriture de FS sont fonction de l'espace libre et de la fragmentation, les performances de lecture sont fonction de la fragmentation uniquement. Elles se dégradent progressivement dès le début, la question est donc de savoir où se situe votre seuil de tolérance.
  • Type de charge

    • La charge d'écriture met l'accent sur la recherche et l'accès rapides à de nouveaux blocs libres.
    • La charge de lecture lourde met l'accent sur la consolidation des données connexes afin qu'elles puissent être lues avec moins de frais généraux.

3voto

Wes Toleman Points 221

Une chose à considérer avec les lecteurs mécaniques est que le débit du bord extérieur est plus élevé que celui de l'intérieur. Cela est dû au fait qu'il y a plus de secteurs par révolution pour la plus grande circonférence de l'extérieur.

Lorsque le disque atteint sa capacité, les performances diminuent car seuls les secteurs internes plus lents sont disponibles.

Pour une analyse plus approfondie, voir https://superuser.com/a/643634

3voto

user3685427 Points 149

Cela dépend de l'utilisation prévue du disque, mais en général, 20 à 15 % d'espace libre est une bonne réponse pour les disques rotatifs, et 10 % ou plus pour les disques SSD.

S'il s'agit du disque principal de l'ordinateur et que des fichiers peuvent être déplacés, 20 % d'espace libre devrait éviter des ralentissements importants. Cela laisse suffisamment d'espace libre sur le disque pour que les données puissent être déplacées et copiées si nécessaire. Un disque rotatif fonctionne mieux lorsque les emplacements libres sont plus proches des données d'origine, tandis que dans un SSD, l'emplacement physique n'affecte pas les performances quotidiennes. Ainsi, le disque rotatif doit avoir plus d'espace libre pour des raisons de performances. Sur le SSD, l'espace libre réduit réduira la longévité du disque, mais pas les performances. Les disques SSD essaient de stocker les données temporaires et les fichiers de téléchargement aléatoire dans les emplacements les moins utilisés afin d'équilibrer l'utilisation des cellules sur l'ensemble du disque ; sinon, une partie du disque vieillira beaucoup plus vite que le reste. Certains SSD récents peuvent réorganiser intelligemment les fichiers pour que l'espace vide se déplace, mais les disques plus anciens ne le font pas forcément.

S'il s'agit d'un support ou d'un disque de stockage à long terme, 5 à 10 % d'espace libre devrait être suffisant, et 10 % serait préférable s'il s'agit d'un disque rotatif. Vous n'avez pas besoin d'autant d'espace libre car ce disque nécessitera rarement le déplacement de données, et les performances ne sont donc pas un facteur aussi important. L'espace libre est utile principalement pour permettre aux mauvais secteurs d'être éliminés et remplacés, et pour permettre aux fichiers d'être plus contigus.

Je ne pousserais pas un disque au-delà de 95% de sa capacité pendant plus d'une journée, à moins qu'il n'y ait une très bonne raison claire.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X