Utiliser-Lightroom
Général => Lightroom : questions générales => Discussion démarrée par: Herve le 07 septembre 2011 à 01:09
-
Bonjour ,
une question un peu Geek : Christophe Métairie semble conseiller les cartes graphiques 10 bits (en fait 30 bits par pixel contre 24 en standard)
Il faut pour cela un moniteur capable de recevoir des images en 10 bits (j'ai un Dell U2711 qui saurait le faire) , bien sûr Vista ou Seven qui sachent le traiter (je ne sais pas pour Mac)
ET un logiciel qui envoie à la carte les fameux 10 bits
d'où ma question : LR peut il le faire ou envoie t il les 3x8 bits traditionnels ???? (alors que CS5 peut envoyer les 3x10 bits)
Et quand bien même , pour ceux qui ont tenté l'expérience , en pratique cela change t il quelque chose à la visualisation de nos photos (pas de dégradés fait expres pour la démo) ?
Deuxième question dans le même genre , mais plus courante:
Quand je calibre avec ma sonde , j'ai le choix entre les option matrice (9 nombres pour tout corriger) ou LUT (je crois 256x3 nombres) ce qui est beaucoup plus précis.
J'ai lu toujours chez Christophe Métairie (mais je ne retrouve pas l'article) que LR ne sait gérer que les corrections matricielles de calibration et PAS les corrections LUT,
confirmez vous??
Cela pourrait expliquer mes déconvenues à calibrer correctement le Dell 2711 (wide gamut) (voir mes posts précédent sur ce sujet.)
-
Suis assez partagé sur cet argument du 10 bits. Je n'ai pas de connaissance assez poussée pour déterminer s'il est avantageux ou pas de migrer vers cette plateforme. Néanmoins Je crois savoir que notre œil est sensible à un dégradé en niveau de gris limité à 200 nuances continues. Le 8 bits fournissant 254 nuances est-il largement suffisant pour notre œil? Certe, pour le traitement des lumières et des couleurs, plus il y aura de nuances plus il sera à postériori facile de traiter les informations.
Cependant pour un dégradé composé de 254 nuances tonales, si notre œil perçoit les frontières de chacune des plages, cela signifie que l'effet de solarisation peu être perceptible sur les zone de ton continus (un ciel par exemple).Le passage en 10 bits peut peut être répondre à cette problématique.
Pourtant certains fabricants ont poussé le vis: proposer des écrans 10 bits alors qu'il s'agit en fait de 8Bits+FRC.
C'est le principe du dithering.qui permet de tenter de conserver une quantification supérieur aux possibilités du matériel final, par interpolation.
Je vous propose cet article un peu technique mais qui remettra les idées au clair sur ce sujet: http://www.hardware.fr/articles/606-4/test-influence-electronique-couleurs-lcd.html.