Comme d'autres l'ont dit, nous ne pouvons plus refroidir efficacement les processeurs si nous devions pousser la tension requise pour les mêmes augmentations relatives de la fréquence d'horloge dans le passé. Il fut un temps (ère P4 et antérieure) où vous pouviez acheter un nouveau CPU et voir un gain de vitesse "immédiat" parce que la fréquence d'horloge était considérablement augmentée par rapport à la génération précédente. Aujourd'hui, nous nous sommes heurtés à un mur thermique, en quelque sorte.
La fréquence d'horloge de chaque nouvelle génération moderne de processeurs augmente très légèrement, mais cela est également relatif à la capacité de les refroidir de manière appropriée. Les fabricants de puces, tels qu'Intel, s'efforcent continuellement de réduire la taille de la puce du processeur afin de le rendre plus économe en énergie et de produire moins de chaleur à la même fréquence d'horloge. Par ailleurs, cette réduction de la taille de la puce rend les processeurs modernes plus susceptibles de mourir d'une surtension que d'une surchauffe. Cela signifie qu'il limite également la fréquence d'horloge maximale de toute génération actuelle de CPU sans autres optimisations effectuées par le fabricant de puces.
L'augmentation du nombre de cœurs sur la puce est un autre domaine sur lequel les fabricants de puces se concentrent fortement. Cela se traduit par une augmentation significative de la puissance de calcul, mais uniquement lorsque l'on utilise des logiciels qui tirent parti de plusieurs cœurs. Notez ici la différence entre puissance de calcul et vitesse. En termes simples, la vitesse fait référence à la rapidité avec laquelle un ordinateur peut exécuter une seule instruction, tandis que la puissance de calcul fait référence au nombre de calculs qu'un ordinateur peut effectuer dans un laps de temps donné. Les systèmes d'exploitation modernes et la plupart des logiciels modernes tirent parti des cœurs multiples. Le problème est que la programmation concurrente/parallèle est plus difficile que le paradigme standard de la programmation linéaire. Cela a augmenté le temps nécessaire pour que de nombreux programmes sur le marché tirent pleinement parti de la puissance de ces nouveaux processeurs, car de nombreux développeurs n'étaient pas habitués à écrire des programmes de cette manière. Il existe encore aujourd'hui des programmes sur le marché (modernes ou anciens) qui ne tirent pas parti des cœurs multiples ou du multithreading. Le programme de cryptage que vous avez cité en est un exemple.
Ces deux domaines d'intérêt des fabricants de puces sont intrinsèquement liés. En réduisant à la fois la taille de la puce et sa consommation d'énergie, ils sont en mesure d'augmenter le nombre de cœurs sur cette puce. Toutefois, cette tendance finira par se heurter à un mur, ce qui entraînera un autre changement de paradigme, plus radical.
Ce changement de paradigme s'explique par le fait que nous nous approchons des limites du silicium en tant que matériau de base pour la production de puces. C'est un problème qu'Intel et d'autres s'efforcent de résoudre depuis un certain temps. Intel a déclaré qu'une alternative au silicium était en cours de développement et que nous commencerions probablement à la voir après 2017. En plus de ce nouveau matériau, Intel étudie également des transistors 3D qui pourraient "tripler efficacement la puissance de traitement". Voici un article qui mentionne ces deux idées : http://apcmag.com/intel-looks-beyond-silicon-for-processors-past-2017.htm