64 votes

Pourquoi les fabricants de processeurs ont-ils cessé d'augmenter la vitesse d'horloge de leurs processeurs ?

J'ai lu que les fabricants ont cessé de se concentrer sur des vitesses d'horloge plus élevées et qu'ils travaillent désormais sur d'autres éléments pour améliorer les performances.

Avec

  • un ancien ordinateur de bureau équipé d'un processeur Intel® Xeon® E3110 cadencé à 3,0 GHz.
  • et un nouveau serveur équipé du processeur AMD Opteron(TM) 6272 avec une vitesse d'horloge de 2,1 GHz.

lors de l'exécution d'une simple comparaison de cryptage en utilisant (single threaded)

 openssl aes256c

le bureau fonctionne beaucoup mieux que le serveur.

Ainsi, même avec la dernière optimisation, pourquoi le processeur avec la meilleure vitesse d'horloge est-il plus performant ?

10voto

Guest Points 21

Comme d'autres l'ont dit, nous ne pouvons plus refroidir efficacement les processeurs si nous devions pousser la tension requise pour les mêmes augmentations relatives de la fréquence d'horloge dans le passé. Il fut un temps (ère P4 et antérieure) où vous pouviez acheter un nouveau CPU et voir un gain de vitesse "immédiat" parce que la fréquence d'horloge était considérablement augmentée par rapport à la génération précédente. Aujourd'hui, nous nous sommes heurtés à un mur thermique, en quelque sorte.

La fréquence d'horloge de chaque nouvelle génération moderne de processeurs augmente très légèrement, mais cela est également relatif à la capacité de les refroidir de manière appropriée. Les fabricants de puces, tels qu'Intel, s'efforcent continuellement de réduire la taille de la puce du processeur afin de le rendre plus économe en énergie et de produire moins de chaleur à la même fréquence d'horloge. Par ailleurs, cette réduction de la taille de la puce rend les processeurs modernes plus susceptibles de mourir d'une surtension que d'une surchauffe. Cela signifie qu'il limite également la fréquence d'horloge maximale de toute génération actuelle de CPU sans autres optimisations effectuées par le fabricant de puces.

L'augmentation du nombre de cœurs sur la puce est un autre domaine sur lequel les fabricants de puces se concentrent fortement. Cela se traduit par une augmentation significative de la puissance de calcul, mais uniquement lorsque l'on utilise des logiciels qui tirent parti de plusieurs cœurs. Notez ici la différence entre puissance de calcul et vitesse. En termes simples, la vitesse fait référence à la rapidité avec laquelle un ordinateur peut exécuter une seule instruction, tandis que la puissance de calcul fait référence au nombre de calculs qu'un ordinateur peut effectuer dans un laps de temps donné. Les systèmes d'exploitation modernes et la plupart des logiciels modernes tirent parti des cœurs multiples. Le problème est que la programmation concurrente/parallèle est plus difficile que le paradigme standard de la programmation linéaire. Cela a augmenté le temps nécessaire pour que de nombreux programmes sur le marché tirent pleinement parti de la puissance de ces nouveaux processeurs, car de nombreux développeurs n'étaient pas habitués à écrire des programmes de cette manière. Il existe encore aujourd'hui des programmes sur le marché (modernes ou anciens) qui ne tirent pas parti des cœurs multiples ou du multithreading. Le programme de cryptage que vous avez cité en est un exemple.

Ces deux domaines d'intérêt des fabricants de puces sont intrinsèquement liés. En réduisant à la fois la taille de la puce et sa consommation d'énergie, ils sont en mesure d'augmenter le nombre de cœurs sur cette puce. Toutefois, cette tendance finira par se heurter à un mur, ce qui entraînera un autre changement de paradigme, plus radical.

Ce changement de paradigme s'explique par le fait que nous nous approchons des limites du silicium en tant que matériau de base pour la production de puces. C'est un problème qu'Intel et d'autres s'efforcent de résoudre depuis un certain temps. Intel a déclaré qu'une alternative au silicium était en cours de développement et que nous commencerions probablement à la voir après 2017. En plus de ce nouveau matériau, Intel étudie également des transistors 3D qui pourraient "tripler efficacement la puissance de traitement". Voici un article qui mentionne ces deux idées : http://apcmag.com/intel-looks-beyond-silicon-for-processors-past-2017.htm

2voto

  • Les pertes de chaleur H égal au 4ème degré de fréquence f .

    H ~ f^4

    Ainsi, l'augmentation mineure de la fréquence entraîne des pertes de chaleur élevées.

  • Une miniaturisation plus poussée

    Une fréquence plus élevée entraîne une minimisation des cristaux plus lointaine. À l'heure actuelle, nous ne disposons d'aucune technologie permettant de travailler efficacement avec des matériaux à l'échelle du nanomètre et le nanomètre est la limite.

2voto

Eric Majerus Points 750

Comme indiqué dans d'autres réponses, les fabricants de processeurs veulent maintenir des vitesses d'horloge basses pour contrôler la consommation d'énergie et la dissipation de la chaleur. Afin d'effectuer plus de travail à la même vitesse d'horloge, plusieurs stratégies sont utilisées.

Les grands caches de mémoire sur puce peuvent garder davantage de données "à proximité" de l'UC, disponibles pour être traitées avec un délai minimal, par opposition à la mémoire principale, qui est beaucoup plus lente à fournir des données à l'UC.

Les différentes instructions du processeur prennent un nombre différent de cycles d'horloge pour être exécutées. Dans de nombreux cas, vous pouvez utiliser un circuit simple pour réaliser une opération sur plusieurs cycles d'horloge, ou un circuit plus complexe pour le faire en moins de temps.

L'exemple le plus spectaculaire de ce phénomène dans l'évolution d'Intel est celui du Pentium 4, qui était une grande aberration en termes de vitesse d'horloge, mais dont les performances n'étaient pas proportionnellement bonnes. Les instructions de décalage de bits, qui, dans les puces précédentes, pouvaient décaler 32 bits en un seul cycle, utilisaient un circuit beaucoup plus simple dans le Pentium 4, qui nécessitait un seul cycle pour chaque décalage de bit. On s'attendait à ce que l'architecture du Pentium 4 soit extensible à des vitesses d'horloge beaucoup plus élevées en raison de sa simplicité, mais cela n'a pas fonctionné, et le circuit de décalage rapide et complexe est revenu dans le Core et les architectures ultérieures.

2voto

Azevedo Points 478

De l'IEEE :

Alors pourquoi ne pas pousser l'horloge plus vite ? Parce que cela ne vaut plus le coût en termes de puissance consommée et de chaleur dissipée. Intel appelle le compromis vitesse/puissance un "théorème fondamental des processeurs multicœurs" - et c'est la raison pour laquelle il est logique d'utiliser deux ou plusieurs zones de traitement, ou cœurs, sur une seule puce.

http://spectrum.ieee.org/computing/hardware/why-cpu-frequency-stalled

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X