101 votes

Quel sens cela a-t-il que la "netteté" soit réglable sur un moniteur ?

Les moniteurs modernes disposent souvent d'un paramètre de "netteté".

Mais je ne comprends pas vraiment comment il est logique qu'un tel cadre existe.

Le logiciel demande au moniteur d'afficher un motif particulier de valeurs RVB 32 bits, n'est-ce pas ?
Par exemple, le système d'exploitation peut demander au moniteur, à chaque image, d'afficher un bitmap particulier de 1920×1080×32.

Mais ajuster la "netteté" signifie laisser les valeurs de pixels proches s'influencer mutuellement, ce qui semble impliquer que l'entrée n'est plus représentée fidèlement... ce qui signifie qu'elle n'afficherait plus ce qu'on lui demande d'afficher, ce qui n'a aucun sens. Je ne vois donc pas en quoi cela laisse une place logique au réglage de la netteté.

D'où vient exactement le degré de liberté pour le réglage de la netteté ?

13voto

slebetman Points 622

Le logiciel demande au moniteur d'afficher un motif particulier de valeurs RVB 32 bits, n'est-ce pas ? Par exemple, le système d'exploitation peut demander au moniteur, à chaque image, d'afficher un bitmap particulier de 1920×1080×32.

Ce n'est pas du tout comme ça que fonctionne le VGA. Au niveau du moniteur, il n'y a pas de pixels du tout.

Voici comment fonctionnaient traditionnellement les écrans avant l'ère du LCD :

  1. Le logiciel demande au pilote du périphérique d'afficher une image bitmap.

  2. Le pilote du dispositif divise l'image en trois formes d'onde pour R, G et B. C'est ça, des formes d'onde ! Exactement comme les formes d'onde audio. Maintenant, ces formes d'onde ont un format spécifique car, alors que l'audio est en 1d, les images sont en 2d.

  3. Le signal analogique des lignes de l'écran est envoyé au moniteur.

Le moniteur ne voit jamais un pixel, il ne voit que des lignes.

  1. Le moniteur crache des électrons se déplaçant à une vitesse proche de celle de la lumière à partir de trois canons à électrons et le faisceau est dévié par un groupe d'électro-aimants de contrôle, ce qui leur permet de peindre tout l'écran.

C'est ici que le contrôle de la netteté entre en jeu.

En raison des tolérances de fabrication, les faisceaux d'électrons ne convergent presque jamais correctement et produisent des images floues dès la sortie de la chaîne de montage. À l'époque, c'était à vous, l'acheteur du moniteur, de régler la netteté à la maison. Plus tard, les écrans les plus modernes ont un processus de réglage automatique en usine, mais le réglage de la netteté doit encore être intégré pour que le processus fonctionne.

La réponse est donc très simple. Le réglage de la netteté est là pour garantir la netteté de l'image sur les écrans.

6voto

StessenJ Points 259

Sur un téléviseur (numérique), la netteté contrôle un filtre d'accentuation qui améliore les bords. Cela n'est pas très utile sur un écran utilisé comme moniteur d'ordinateur.

Au siècle dernier, sur un moniteur CRT analogique haut de gamme, la netteté pouvait être contrôlée par la tension de focalisation du canon à électrons. Cela affecte la taille du spot avec lequel l'image est dessinée. Si la taille du point est trop petite (trop nette), la structure des lignes devient trop visible. Il peut également y avoir des interférences "moirées" gênantes avec la structure du masque d'ombre. Le réglage optimal dépend de la résolution (fréquence d'échantillonnage) de l'image, car de nombreux moniteurs à tube cathodique étaient capables de gérer plusieurs résolutions sans mise à l'échelle (multi-synchro). Réglez-le juste assez net.

Les téléviseurs à tube cathodique haut de gamme étaient équipés de la modulation de la vitesse de balayage, qui consiste à ralentir le faisceau de balayage autour d'un bord vertical, ainsi que de filtres de correction horizontale et verticale et peut-être d'un circuit d'amélioration des transitoires horizontaux. La netteté peut avoir contrôlé tout ou partie de ces éléments.

En général, l'accentuation de la netteté améliore les bords en rendant le côté sombre du bord plus sombre, le côté clair plus lumineux et le milieu du bord plus raide. Un filtre d'accentuation typique calcule un différentiel d'ordre 2, dans le traitement numérique, par exemple (-1,2,-1). Ajoutez une petite quantité de ces pics au signal d'entrée. Si vous supprimez les dépassements, cela se réduit à une "amélioration transitoire".

Sur certains appareils numériques, la netteté d'un scaler peut être contrôlée, par exemple dans mes récepteurs de télévision numérique par satellite. Cela permet de définir la largeur de bande des filtres polyphasés d'un dispositif de mise à l'échelle, qui convertit la résolution de la source en résolution d'affichage. La mise à l'échelle ne peut pas être parfaite, c'est toujours un compromis entre les artefacts et la netteté. Si elle est trop nette, des contours et un aliasing gênants sont visibles.

C'est peut-être la réponse la plus plausible à votre question, mais seulement si le moniteur est mis à l'échelle. Cela ne ferait rien pour un mode 1:1 non mis à l'échelle.

Source : 31 ans d'expérience dans le traitement du signal pour la télévision.

4voto

Beefster Points 157

Ça n'a pas de sens. Ou du moins, cela n'en a pas sur la plupart des moniteurs LCD. Vous voudrez presque toujours que votre "netteté" soit réglée sur 0, en fonction du moniteur ou de la télévision (certains brouillent le signal à 0, donc le réglage réel non filtré peut se situer quelque part au milieu), sinon, il appliquera un filtre de type amélioration des bords qui rend le côté le plus sombre d'un bord plus sombre et le côté le plus clair plus clair. Ce phénomène est particulièrement visible sur les dessins animés et le texte. Votre avis peut varier, mais je pense que c'est mauvais dans presque tous les cas.

Il s'agit d'un filtre à perte, irréversible, que vous ne souhaiterez probablement pas activer. Votre ordinateur envoie des données parfaites au pixel près, de sorte que les filtres de "netteté" et de flou ne sont généralement pas souhaitables.

Notez également que le filtre/réglage de la "netteté" est un terme mal choisi. Il est impossible de rendre une image plus nette (c'est-à-dire plus détaillée), mais seulement moins détaillée. La seule façon d'obtenir une image plus nette est d'utiliser une image source de plus haute définition.

4voto

Jeremy Foo Points 87

Les réglages de la netteté existent sur les panneaux LCD parce que les fabricants pensent que les effets numériques permettront de vendre davantage de moniteurs et de téléviseurs. Plutôt que de représenter fidèlement l'entrée de l'ordinateur, le fabricant donne à l'utilisateur des options lui permettant de modifier l'image en fonction de ses goûts personnels, aussi médiocres soient-ils.

La "netteté" est pertinente pour les signaux analogiques (comme VGA) et pour les écrans CRT, où le signal est représenté par des formes d'onde à un moment donné. Comme l'analogique a tendance à être imprécis, les paramètres de netteté permettent de calibrer les tolérances et de compenser les imperfections de la sortie de l'affichage analogique et de la transmission du signal.

La netteté ne devrait pas avoir d'importance sur les écrans LCD utilisant des sources de données DVI, HDMI et autres sources de données "parfaites au niveau des pixels" avec un mappage de résolution 1:1. Oui, la netteté déforme l'image dans ce scénario. Les écrans des magasins en boîte ont souvent une netteté et d'autres filtres numériques poussés à l'extrême pour paraître plus spectaculaires que les écrans environnants. Certains consommateurs peuvent en fait vouloir ces effets parce qu'ils se sont habitués aux effets des filtres ou parce qu'ils essaient de compenser un écran LCD de mauvaise qualité qui semble mauvais à l'œil en sortie native. La netteté peut également être importante lorsqu'on utilise un signal numérique qui doit être redimensionné parce que la source et l'écran ont des résolutions différentes.

Globalement, il est préférable de régler la netteté sur Off ou 0 sur un écran LCD moderne avec un signal numérique 1:1.

http://hifi-writer.com/wpblog/?page_id=3517 et https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness-control.2080809/

4voto

supercat Points 1719

De nombreux moniteurs peuvent accepter un signal vidéo qui n'a pas la même résolution que le panneau, et tenter de le mettre à l'échelle comme il convient. Si un moniteur de 1280 pixels de large est appelé à afficher une image de 1024 pixels de large, et que le matériau source consiste en des bandes noires et blanches d'un pixel de large, l'écran affichera probablement un motif répétitif de 5 pixels. Sur une échelle de 0 à 4, le motif serait probablement 03214. Si les bandes noires et blanches de l'original sont "significatives", les afficher comme ci-dessus peut être utile. D'un autre côté, le motif répétitif de 5 pixels serait une distraction qui n'est pas présente dans l'original. L'ajout d'un peu de flou à l'image réduirait les effets d'aliasing de la mise à l'échelle.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X