60 votes

Bonne taille de bloc pour le clonage de disque avec diskdump (dd)

J'utilise dd dans sa forme la plus simple pour cloner un disque dur :

dd if=INPUT of=OUTPUT

Cependant, j'ai lu dans la page de manuel que dd connaît un paramètre de taille de bloc. Existe-t-il une valeur optimale pour le paramètre blocksize qui accélère la procédure de clonage ?

33voto

akira Points 58339

64k semble être un bon choix :

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(extrait de aquí ).

cela correspond à mes propres découvertes concernant la mise en mémoire tampon de lecture/écriture pour accélérer un programme de conversion lourd en io que j'ai un jour présenté au travail.

28voto

quickly_now Points 1843

Dd copiera volontiers en utilisant le BS de ce que vous voulez, et copiera un bloc partiel (à la fin).

En fait, le paramètre de taille de bloc (bs) semble définir la quantité de mémoire utilisée pour lire un bloc d'un disque avant d'essayer d'écrire ce bloc sur l'autre disque.

Si vous avez beaucoup de mémoire vive, le fait de rendre la mémoire de base grande (mais entièrement contenue dans la mémoire vive) signifie que le sous-système d'E/S est utilisé autant que possible en effectuant des lectures et des écritures très importantes - en exploitant la mémoire vive. Si la mémoire de base est petite, la proportion de l'activité d'E/S par rapport à l'activité totale augmente.

Bien sûr, dans ce domaine, il existe une loi des rendements décroissants. Je pense qu'une taille de bloc comprise entre 128K et 32M donnera probablement des performances telles que les frais généraux seront faibles par rapport aux simples E/S, et qu'une taille supérieure ne fera pas une grande différence. La raison pour laquelle la limite inférieure est de 128K à 32M est que cela dépend de votre système d'exploitation, de votre matériel, etc.

Si c'était moi, je ferais quelques expériences en synchronisant une copie/clone en utilisant une BS de 128K et à nouveau en utilisant (disons) 16M. Si l'une est sensiblement plus rapide, utilisez-la. Sinon, utilisez la plus petite BS des deux.

16voto

tdg5 Points 376

Comme d'autres l'ont dit, il n'existe pas de taille de bloc universellement correcte ; ce qui est optimal pour une situation ou un matériel peut être terriblement inefficace pour un autre. De plus, selon l'état de santé des disques, il peut être préférable d'utiliser une taille de bloc différente de celle qui est "optimale".

Une chose qui est assez fiable sur le matériel moderne est que la taille de bloc par défaut de 512 octets a tendance à être presque un ordre de grandeur plus lent qu'une alternative plus optimale. En cas de doute, j'ai trouvé que 64K est un défaut moderne assez solide. Bien que 64K ne soit généralement pas LA taille de bloc optimale, d'après mon expérience, elle tend à être beaucoup plus efficace que la valeur par défaut. 64K a également une histoire assez solide d'être fiable et performant : Vous pouvez trouver un message de la liste de diffusion Eug-Lug, circa 2002, recommandant une taille de bloc de 64K ici : http://www.mail-archive.com/eug-lug@efn.org/msg12073.html

Pour déterminer LA taille de bloc de sortie optimale, j'ai écrit le script suivant qui teste l'écriture d'un fichier de test de 128M avec dd à une gamme de tailles de bloc différentes, de la valeur par défaut de 512 octets à un maximum de 64M. Soyez avertis, ce script utilise dd en interne, donc à utiliser avec précaution.

dd_obs_test.sh :

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Voir sur GitHub

Je n'ai testé ce script que sur un système Debian (Ubuntu) et sur OSX Yosemite, donc il faudra probablement le modifier pour qu'il fonctionne sur d'autres saveurs d'Unix.

Par défaut, la commande créera un fichier de test nommé dd_obs_testfile dans le répertoire actuel. Alternativement, vous pouvez fournir un chemin vers un fichier de test personnalisé en fournissant un chemin après le nom script :

$ ./dd_obs_test.sh /path/to/disk/test_file

Le résultat du script est une liste des tailles de blocs testées et de leurs taux de transfert respectifs respectifs comme ceci :

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Remarque : l'unité des taux de transfert varie selon le système d'exploitation).

Pour tester la taille optimale des blocs de lecture, vous pouvez utiliser plus ou moins le même procédé, mais au lieu de lire depuis /dev/zero et d'écrire sur le disque, vous lirez depuis disque et d'écrire sur /dev/null. Un script pour faire cela pourrait ressembler à ceci :

dd_ibs_test.sh :

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Voir sur GitHub

Une différence importante dans ce cas est que le fichier de test est un fichier qui est écrit par le script. Ne dirigez pas cette commande vers un fichier existant, sinon ce dernier sera écrasé par des données aléatoires !

Pour mon matériel particulier, j'ai constaté que 128K était la taille de bloc d'entrée la plus optimale sur un disque dur et que 32K était la plus optimale sur un SSD.

Bien que cette réponse couvre la plupart de mes constatations, j'ai été confronté à cette situation suffisamment souvent pour écrire un article de blog à ce sujet : http://blog.tdg5.com/tuning-dd-block-size/ Vous pouvez trouver plus de détails sur les tests que j'ai effectués ici.

Cet article de StackOverflow peut également être utile : dd : Comment calculer la taille de bloc optimale ?

3voto

Oui, mais vous ne le trouverez pas sans faire beaucoup de tests. J'ai trouvé que 32M est une bonne valeur à utiliser cependant.

1voto

kgSW.de Points 11

Clonage de l'ancien disque de démarrage vers le nouveau ssd sur sata externe (ssd vers ssd)

  • utilisation de linux Ubuntu 18.04.2 LTS 64bit
  • hp xw4600 ( 8GB RAM, intel Core 2 Quad Q6700 @2.66GHz 4c/4t no-HT)

utilisation des disques (outil) > formatage > ATA Secure Erase (2min)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda : Kingston SSD (vieux ; Disks rapporte un taux de lecture moyen de 263 MB/s avec des pics proches de 270 MB/s -- pas de test d'écriture à cause du disque système)
  • sdf : Crucial MX500, 500GB, CT500MX500SSD1 (Rapports des disques : taux moyen de rd/wr 284/262 MB/s, et temps d'accès 0.05ms, avec des pics à environ 290/270 MB/s)

Les tests sont effectués :

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

Deuxième essai après l'effacement sécurisé avec le même résultat :

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X