74 votes

Quelle est l'origine de K = 1024 ?

Pourquoi existe-t-il un écart entre le nombre d'octets dans un kilooctet ? A certains endroits, j'ai vu le nombre 1024 (2 10 ) alors que dans d'autres, elle est de 1000 (et la différence devient de plus en plus grande avec M, G, T, etc.).

Il ne s'agit pas d'une discussion sur la question de savoir s'il doit s'agir de 1024 ou de 1000 (bien que vous puissiez en discuter dans les commentaires), mais de savoir où et quand cette situation est apparue et/ou s'est répandue.

Pour autant que je sache, Linux et les fabricants de matériel n'utilisent jamais la variante 1024. Cela, et des ouï-dire, me font penser que MS-DOS a rendu cette version courante, mais quels sont les faits ?

0voto

Cano64 Points 111

Lorsque vous considérez que les nombres sur les ordinateurs sont binaires, et que 2^10 correspond à 1024, cela est parfaitement logique. Il est beaucoup plus facile de travailler avec 1024 plutôt qu'avec 1000, parce que vous pouvez facilement diviser par 1024 en utilisant uniquement des mathématiques entières et décalage de bits . La division par 1000 est une opération beaucoup plus coûteuse, qui peut nécessiter des calculs en virgule flottante.

Par exemple

bytes = 1 073 741 824
kilobytes = bytes >> 10 = 1 048 576
megabytes = kilobytes >> 10 = 1024
gigabytes = megabytes >> 10 = 1

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X