26 votes

Quelle est la taille actuelle de ma table de déduplication ZFS ?

J'ai lu beaucoup d'informations sur la planification des besoins en RAM pour la déduplication ZFS. Je viens de mettre à niveau la RAM de mon serveur de fichiers pour prendre en charge une déduplication très limitée sur les zvols ZFS sur lesquels je ne peux pas utiliser les snapshots et les clones (car ce sont des zvols formatés comme un système de fichiers différent) mais qui contiendront beaucoup de données dupliquées.

Je veux m'assurer que la nouvelle RAM que j'ai ajoutée supportera la déduplication limitée que j'ai l'intention de faire. Dans la planification, mes chiffres semblent bons mais je veux être bien sûr .

Comment puis-je dire à la actuel taille des tables de déduplication ZFS (DDT) sur mon système en direct ? Je lis ce fil de la liste de diffusion mais je ne comprends pas bien comment ils arrivent à ces chiffres. (Je peux afficher la sortie de zdb tank si nécessaire mais je cherche une réponse générique qui puisse aider les autres)

26voto

ewwhite Points 193555

Vous pouvez utiliser le zpool status -D poolname commandement.

La sortie ressemblerait à :

root@san1:/volumes# zpool status -D vol1
  pool: vol1
 state: ONLINE
 scan: scrub repaired 0 in 4h38m with 0 errors on Sun Mar 24 13:16:12 2013

DDT entries 2459286, size 481 on disk, 392 in core

bucket              allocated                       referenced          
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    2.23M   35.6G   19.0G   19.0G    2.23M   35.6G   19.0G   19.0G
     2     112K   1.75G   1005M   1005M     240K   3.75G   2.09G   2.09G
     4    8.03K    129M   73.8M   73.8M    35.4K    566M    324M    324M
     8      434   6.78M   3.16M   3.16M    4.61K   73.8M   35.4M   35.4M
    16      119   1.86M    811K    811K    2.33K   37.3M   15.3M   15.3M
    32       24    384K   34.5K   34.5K    1.13K   18.1M   1.51M   1.51M
    64       19    304K     19K     19K    1.63K   26.1M   1.63M   1.63M
   128        7    112K      7K      7K    1.26K   20.1M   1.26M   1.26M
   256        3     48K      3K      3K     1012   15.8M   1012K   1012K
   512        3     48K      3K      3K    2.01K   32.1M   2.01M   2.01M
    1K        2     32K      2K      2K    2.61K   41.7M   2.61M   2.61M
    2K        1     16K      1K      1K    2.31K   36.9M   2.31M   2.31M
 Total    2.35M   37.5G   20.1G   20.1G    2.51M   40.2G   21.5G   21.5G

Les champs importants sont les suivants Total blocs alloués et les Total blocs référencés. Dans l'exemple ci-dessus, j'ai un faible taux de déduplication. 40.2G sont stockés sur le disque dans 37.5G d'espace. Ou 2,51 millions de blocs dans 2,35 millions de blocs d'espace.

Pour obtenir la taille réelle de la table, voir :

Entrées DDT 2459286, taille 481 sur le disque, 392 dans le noyau.

2459286*392=964040112 octets Divisez par 1024 et 1024 pour obtenir : 919.3MB en RAM .

1 votes

J'aime particulièrement l'exemple DDT de @ewwhite, parce qu'il constitue également un excellent exemple de ratio qui exclut toute utilisation de la déduplication. J'enverrais/récupérerais par zfs les ensembles de données sur ce pool, des ensembles de données dédupliqués aux ensembles de données non dédupliqués, et je m'estimerais heureux qu'ils soient encore assez petits pour que cela soit gérable. :) Soyez prudent en supposant que vos zvols seront dédupliqués. En tant que déduplication au niveau du bloc, une seule différence de décalage pourrait fausser l'ensemble. Si j'ai un conseil à donner, c'est de déplacer des montagnes pour tester l'ensemble de données de production dans un laboratoire TEST /avant/ de mettre le dédoublement ZFS dans un environnement de production.

0 votes

constantin.glez.de/blog/2011/07/zfs-dedupe-or-not-dedupe contient de bonnes informations sur le calcul de vos gains attendus de la déduplication et de vos coûts attendus.

0 votes

Cette réponse avait besoin d'une mise à jour, elle n'était pas tout à fait complète. Voir ci-dessous pour une réponse plus détaillée

6voto

Joe Points 11

Après avoir lu le fil de discussion original et @ewwhite's Je pense que cette question nécessite une réponse actualisée, car la réponse ci-dessus ne couvre que la moitié de la question.

A titre d'exemple, utilisons la sortie sur mon pool. J'ai utilisé la commande zdb -U /data/zfs/zpool.cache -bDDD My_pool . Sur mon système, j'avais besoin du supplément -U arg pour localiser le fichier cache ZFS pour le pool, que FreeNAS stocke dans un emplacement différent de la normale ; vous pouvez ou non avoir besoin de le faire. En général, essayez zdb sans -U d'abord, et si vous obtenez une erreur de fichier cache, alors utilisez find / -name "zpool.cache" ou similaire pour localiser le fichier dont il a besoin.

C'était mon résultat réel et je l'ai interprété ci-dessous :

DDT-sha256-zap-duplicate: 771295 entries, size 512 on disk, 165 in core

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     2     648K   75.8G   68.6G   68.8G    1.39M    165G    149G    149G
     4    71.2K   8.07G   6.57G   6.62G     368K   41.7G   34.1G   34.3G
     8    28.1K   3.12G   2.34G   2.36G     281K   31.0G   23.1G   23.4G
    16    5.07K    424M    232M    241M     110K   9.10G   5.06G   5.24G
    32    1.09K   90.6M   51.8M   53.6M    45.8K   3.81G   2.21G   2.28G
    64      215   17.0M   8.51M   8.91M    17.6K   1.39G    705M    739M
   128       38   2.12M    776K    872K    6.02K    337M    118M    133M
   256       13    420K   21.5K     52K    4.63K    125M   7.98M   18.5M
   512        3      6K      3K     12K    1.79K   3.44M   1.74M   7.16M
    1K        1    128K      1K      4K    1.85K    237M   1.85M   7.42M
    2K        1     512     512      4K    3.38K   1.69M   1.69M   13.5M

DDT-sha256-zap-unique: 4637966 entries, size 478 on disk, 154 in core

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    4.42M    550G    498G    500G    4.42M    550G    498G    500G

DDT histogram (aggregated over all DDTs):

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    4.42M    550G    498G    500G    4.42M    550G    498G    500G
     2     648K   75.8G   68.6G   68.8G    1.39M    165G    149G    149G
     4    71.2K   8.07G   6.57G   6.62G     368K   41.7G   34.1G   34.3G
     8    28.1K   3.12G   2.34G   2.36G     281K   31.0G   23.1G   23.4G
    16    5.07K    424M    232M    241M     110K   9.10G   5.06G   5.24G
    32    1.09K   90.6M   51.8M   53.6M    45.8K   3.81G   2.21G   2.28G
    64      215   17.0M   8.51M   8.91M    17.6K   1.39G    705M    739M
   128       38   2.12M    776K    872K    6.02K    337M    118M    133M
   256       13    420K   21.5K     52K    4.63K    125M   7.98M   18.5M
   512        3      6K      3K     12K    1.79K   3.44M   1.74M   7.16M
    1K        1    128K      1K      4K    1.85K    237M   1.85M   7.42M
    2K        1     512     512      4K    3.38K   1.69M   1.69M   13.5M
 Total    5.16M    638G    576G    578G    6.64M    803G    712G    715G

dedup = 1.24, compress = 1.13, copies = 1.00, dedup * compress / copies = 1.39

Ce que cela signifie et comment calculer la taille réelle de la table de déduplication :

La sortie montre deux sous-tableaux, l'un pour les blocs où il existe un doublon ( DDT-sha256-zap-duplicate ) et un pour les blocs où aucun doublon n'existe ( DDT-sha256-zap-unique )/. Le troisième tableau en dessous donne un total global pour les deux tableaux, et une ligne de résumé se trouve en dessous. En regardant uniquement les lignes "total" et le résumé, nous obtenons ce dont nous avons besoin :

Taille de la DDT pour tous les blocs qui apparaissent plus d'une fois ("DDT-sha256-zap-duplicate") :
771295 entries, size 512 bytes on disk, 165 bytes in RAM ("core")

Taille du DDT pour les blocs qui sont uniques ("DDT-sha256-zap-unique") :
4637966 entries, size 478 bytes on disk, 154 bytes in RAM ("core")

Statistiques totales de la DDT pour toutes les entrées de la DDT, duplicata + unique ("Histogramme de DDT agrégé sur tous les DDT") :

                    allocated                       referenced
          (= disk space actually used)      (= amount of data deduped 
                                                 into that space)
______   ______________________________   ______________________________
         blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE

 Total    5.16M    638G    576G    578G    6.64M    803G    712G    715G

Résumé :
dedup = 1.24, compress = 1.13, copies = 1.00, dedup * compress / copies = 1.39

Faisons un peu de calcul.

  • Le comptage des blocs fonctionne comme suit : Le nombre d'entrées relatives aux blocs dupliqués = 771295, le nombre d'entrées relatives aux blocs uniques = 4637966, le total des entrées dans la table DDT devrait être 771295+4637966 = 5409261. Donc le nombre de blocs en millions (en millions binaires !) serait 5409261 / (1024^2) = 5,158 millions. Dans le résumé, nous trouvons qu'il y a 5,16 millions de blocs au total .

  • La RAM nécessaire fonctionne comme suit : Les 771295 entrées pour les blocs en double occupent chacune 165 octets de RAM, et les 4637966 entrées pour les blocs uniques occupent chacune 154 octets de RAM, donc le total de RAM nécessaire pour la table de déduplication en ce moment = 841510439 octets = 841510439 / (1024^2) Mo = 803 Mo 0,78 Go de RAM .

    (La taille sur disque utilisée peut être calculée de la même manière, en utilisant les chiffres de la "taille sur disque". Il est clair que ZFS essaie d'utiliser efficacement les E/S du disque et de tirer parti du fait que l'espace disque occupé par le DDT n'est normalement pas un problème. Il semble donc que ZFS alloue simplement un secteur complet de 512 octets pour chaque entrée, ou quelque chose de ce genre, au lieu de seulement 154 ou 165 octets, pour rester efficace. Il se peut que cela ne tienne pas compte des copies multiples conservées sur le disque, ce que ZFS fait habituellement).

  • La quantité totale de données stockées, et l'avantage de les déduire : D'après les statistiques totales de DDT, 715 Gbytes ("715G") de données sont stockées en utilisant seulement 578 GBytes ("578G") de stockage alloué sur les disques. Ainsi, notre ratio d'économie d'espace de déduplication est de (715 Go de données) / (578 Go d'espace utilisé après la déduplication) \= 1.237 x, ce qui est ce que le résumé nous dit ("dedup = 1.24").

0 votes

Il y a des avertissements constants sur le fait que zfs et la déduplication sont gourmands en mémoire, sur un système avec 48G de mémoire, et un pool de 24TB avec un ratio de duplication de 2.59x, est-il réaliste que le nombre que j'obtienne pour ce calcul soit seulement 3GB ? dedup: DDT entries 8953198, size 2829 on disk, 342 in core Même si l'on mettait l'intégralité de la table DDT dans le noyau, cela ne représenterait que 27G ? C'est peut-être ce qui se passe puisque 37G sont utilisés et qu'aucun processus ne possède plus de 70mb chacun. Je me suis battu avec des performances abyssales en écriture sur resilver. 45 w/s 850wkb/s 75%util scan ~ 15M/s -- 500 heures par remplacement de disque :( peut flasher un disque en <16 hr

1 votes

@ThorSummoner- La RAM n'est que la moitié de votre problème. Les autres sont 1) l'éjection de la DDT (elle partage la ram sous forme d'ARC avec toutes les autres données et métadonnées mises en cache), et 2) la vitesse d'accès à la DDT (vous pouvez avoir assez de ram mais les données brutes doivent être lues/mises à jour également, cela peut totalement submerger la plupart des dispositifs, même certains SSD). Bref conseil, - utilisez les tunables zfs_arc_meta_min pour réserver le stockage des métadonnées dans l'ARC, et déplacer toutes les métadonnées du pool vers des miroirs vdev spéciaux, hébergés sur de bons SSD. Si cela ne fonctionne pas, ou si cela ne suffit pas, posez une nouvelle question ici et envoyez-moi un message avec une réponse à cette question pour attirer mon attention.

0 votes

Prenez également en compte la structure du pool (RAIDZ ou miroirs) et le nombre de cœurs du processeur (Resilver et scrub peuvent être très gourmands en cœurs si la déduplication est utilisée). Les forums TrueNAS ont beaucoup exploré ce sujet. De plus, le volume de 24 To est-il utilisé ou la taille totale du pool ? Il serait peut-être préférable d'ouvrir une nouvelle question.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X