Les moniteurs modernes disposent souvent d'un paramètre de "netteté".
Mais je ne comprends pas vraiment comment il est logique qu'un tel cadre existe.
Le logiciel demande au moniteur d'afficher un motif particulier de valeurs RVB 32 bits, n'est-ce pas ?
Par exemple, le système d'exploitation peut demander au moniteur, à chaque image, d'afficher un bitmap particulier de 1920×1080×32.
Mais ajuster la "netteté" signifie laisser les valeurs de pixels proches s'influencer mutuellement, ce qui semble impliquer que l'entrée n'est plus représentée fidèlement... ce qui signifie qu'elle n'afficherait plus ce qu'on lui demande d'afficher, ce qui n'a aucun sens. Je ne vois donc pas en quoi cela laisse une place logique au réglage de la netteté.
D'où vient exactement le degré de liberté pour le réglage de la netteté ?