D'accord avec le début. Les filtres de base sont des polarisants pour éliminer les reflets, des Ndx pour pouvoir effectuer des poses longues (filés) ainsi que de très bons Uv ou neutres pour protéger ses optiques.
Comme en numérique (du moins avec les petits capteurs) on fleurte plus avec les supers grands angles, les filtres doivent être de meilleures qualités pour générer le moins possible de défauts. Mais parfois à ce niveaux on cherche la petite bête, qui a dans le passé agrandi son 24x36 autant que dans cs2 pour chercher le défaut provoqué par l'ajout d'un filtre. Personnellement je met toujours au moins un uv pour protéger la lentille. Je préfère les Uv aux filtres neutres car ceux-ci peuvent être utiles lorsque je monte mes optiques sur un argentique.
C'est une idée assez répendue dans le monde du numérique que les filtres de correction de couleurs peuvent tous être reproduits dans la chaîne numérique et donc sont inutiles.
Si l'on veut être aussi puriste que les "anti filtres de protection", ce n'est pas tout a fait exact.
Les corrections numériques se font en divisant le spectre selon les trois couleurs de base RVB et on augmente ou diminue chacun des 3 caneaux pour effectuer la correction. Les filtres eux ne divisent pas le spectre et la 'correction effectuée varie sur toute la longueur du spectre. Sans statuer quelle est la meilleure méthode, elles ne sont pas équivalentes.
De plus si on effectue les corrections après la prise de vue, par exemple tu dois pousser une couleur ou tu n'as dans le fichier que 120 niveaux différents (1-120) et qu'il faut en faire 200 (de 1 à 200) il n'y a pas de solution magique pour inventer 200 niveaux différents. Soit on répartis les 120 niveaux différents entre 1 et 200 et on obtients 120 valeurs réparties de 1 à 200, soit on augmente chacune des valeurs de 80 et on obtient des valeurs de 80 à 200. En tout cas on n'obtient pas 200 valeurs différentes en partant de 120. Idem dans l'autre sens, s'il faut diminuer une couleur qui serait de 0 à 255 car on est trop saturé le 255 devant devenir par exemple 220. Le système ne saura pas discerner l'ensemble de teintes différentes qu'il a perçu comme 255 et qui auraient du être étalées de 220 à 255. Donc logiquement lorsqu'on effectue des corrections numériques soit on diminue le monbre de valeurs différentes et donc on perd de l'information, soit on n'a pas l'info pour optenir l'ensemble des valeurs qui auraient dû être perçues à la prise de vue. (j'ai pris des petits chiffres pour simplifier mon propos).
Donc effectuer une correction en amont ou en aval du capteur ce n'est pas équivalent. Maintenant vu le nombre important de niveaux différents contenus dans un fichier Raw, vu les limitations de nos systémes d'impression ou de projection, et aussi vu parfois ce que nous pouvons encore percevoir. Il n'est pas sûr que nous arrivions à percevoir la différence même si celle-ci est réelle.