2 votes

Quelle est la relation entre le débit (ou la bande passante) et la latence (temps de réponse) dans cette situation ?

D'après ce que j'ai compris, la latence est le temps nécessaire pour qu'une demande de disque soit envoyée à la mémoire tampon du contrôleur de disque, puis à l'unité centrale (ou à la mémoire).

Le débit est le nombre de ces requêtes que vous pouvez traiter dans un laps de temps donné...

Alors, n'est-il pas logique que le débit augmente lorsque la latence diminue ? Et pourquoi certains fournisseurs de disques se vantent-ils d'avoir un meilleur débit que d'autres, alors que d'autres mettent l'accent sur la latence ? Pourquoi ne pas choisir une seule norme de mesure ?

1 votes

Je suis conscient que ces questions sont toutes pertinentes pour la classe, mais vous posez de bonnes questions et vous êtes instruit. Bienvenue sur Super User et n'hésitez pas à rester dans les parages :)

5voto

music2myear Points 38573

Le temps de latence est le temps nécessaire à tout type de processus, généralement une communication sous une forme ou une autre.

Le débit est la quantité d'informations qu'un système donné peut traiter, généralement mesurée en fonction d'incréments de temps déterminés.

Une latence élevée n'est pas forcément synonyme de débit faible et vice versa. Quelques exemples permettent d'illustrer ce propos :

Par exemple, dans le cas d'une connexion internet, la latence est généralement mesurée par le temps nécessaire pour qu'une requête soit transmise de votre ordinateur à un serveur donné. Avec le câble ou le DSL, ce chiffre est relativement bas. Avec le satellite, ce chiffre a tendance à être très, très élevé. Le débit de cette même connexion est mesuré en Mbps ou Mégabits par seconde. Les chiffres de débit pour ces différentes connexions peuvent être très similaires, même si les chiffres de latence ne le sont pas. L'internet par satellite, par exemple, a tendance à avoir une largeur de bande assez importante. Il s'agit de transmettre une très grande quantité d'informations du satellite vers vous sur une courte période de temps. Il faut simplement beaucoup de temps pour faire l'aller-retour entre votre ordinateur, le serveur, le satellite et vous.

Une autre façon de voir les choses serait d'imaginer un break roulant sur l'autoroute à 55 miles à l'heure (ma grand-mère est au volant) rempli de cartes mémoire SD ou de clés USB. Des centaines de milliers, pour être plus précis. Le débit de ce break est incroyablement élevé. Pensez-y : il pourrait y avoir plus de plusieurs centaines de pétaoctets à l'intérieur de ce break. Ainsi, même si le temps de latence du voyage de Chicago à Sacramento peut être de 3 jours entiers (environ 25 heures de conduite), ces 25 heures divisées par quelques centaines de pétaoctets sont toujours énormément plus rapides que n'importe quelle connexion à l'internet que l'on peut s'offrir.

La raison pour laquelle la latence et le débit ne sont pas nécessairement corrélés est la densité des données. La question n'est pas tant de savoir à quelle vitesse l'information peut faire le voyage que de savoir quelle quantité d'information peut faire le voyage à chaque fois. Il s'agit plutôt de la quantité d'informations qui peut être acheminée à chaque fois.

3voto

David Schwartz Points 60868

Pourquoi le débit augmenterait-il simplement parce que la latence diminue ? L'envoi d'un fichier à l'autre bout du pays par un modem de 56 Kbps présente un temps de latence très faible : chaque octet arrive moins d'une seconde après avoir été envoyé. En revanche, l'envoi par FedEx d'une boîte de DVD a un débit beaucoup plus élevé.

Les vendeurs mettent l'accent sur ce qu'ils pensent être le plus beau. Mais l'une des principales raisons pour lesquelles il n'existe pas de norme unique est que les charges de travail ont des exigences différentes. Certaines charges de travail sont principalement axées sur les performances séquentielles (comme les serveurs web) et d'autres sur les performances d'accès aléatoire (comme les serveurs multimédias). Certaines charges de travail (comme les serveurs web) sont principalement axées sur la lecture et ne s'intéressent pas du tout aux performances d'écriture. Certaines charges de travail (comme les sauvegardes) sont principalement en écriture et ne se soucient pas particulièrement des performances en lecture.

1voto

saq Points 421

Supposons que nous ayons deux lignes, A et B, avec la même largeur de bande, mais A avec une latence très élevée et B avec une latence très faible. Si nous transférons un fichier volumineux et que chaque ligne présente un taux d'erreur fixe égal (de n erreurs par m octets transférés) > 0, B donnera des temps de transfert plus rapides que A, car la ligne A consommera plus de temps pendant que le nœud/l'hôte/la machine à chaque extrémité attend les réponses/les paquets de l'autre extrémité.

Par conséquent, si l'on définit le débit comme le nombre d'octets corrects/réussis/vérifiés transférés par unité de temps, une latence plus faible se traduira par un débit plus élevé, tous les autres paramètres étant égaux.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X