Attention, il n'y a pas de corrélation directe entre IL et profondeur de couleur !

Les IL, c'est la capacité du capteur à pouvoir différencier les hautes et les basses lumières, indépendamment du nombre de couleurs ! tu peux avoir la meilleur dynamique du monde, si ton image ne présente pas de nuance de couleur, elle n'utilisera pas l'ensemble du spectre possible.

Inversement, un capteur avec peu de dynamique (donc l'image sera très vite soit blanche soit noir dans les lumières et les ombres), peut utilise l'intégralité des 16 millions de couleurs disponibles ! Ton image pourra avoir l'ensemble de la palette de couleur, même lorsque le contraste de ta scène est faible : il suffit de considérer la plus haute lumière comme blanc, la plus basse comme noir, et ensuite d'étaler le reste sur la palette.

Paradoxalement, plus ta dynamique est grande, moins tes dégradés seront précis (dans le principe), car il faudra étirer les couleurs disponibles entre les plus hautes lumières et les plus basses.

Prends l'exemple d'une pâte à tarte. Ta pâte, c'est l'ensemble de ta palette disponible (l'exemple est pas parfait, mais j'ai que ça en tête). Si tu considère la taille de ton plat comme ta dynamique.
Plus ton plat est grand, plus tu es obligé d'étirer ta pâte... jusqu'à ce qu'à un moment cela ne soit plus possible, et qu'il y ait des trous. Il faut alors rajouter de la pâte pour combler les trous (passer sur un encodage plus grand)
Inversement, même si ton plat est petit, tu peux y caser toute ta pâte.

alors c'est un exemple, et on parle bien évidemment de capter avec des différences de quelques IL... donc ça n'est pas à un point où c'est critique. Mais je voulais juste rebondir sur la correlation directe qui est faite (à tort) entre dynamique et encodage.

La réalité est bien plus complexe : un capteur ne capte pas du tout de la même manière que l'on encode. Il a par exemple beaucoup plus de détails dans les tons clairs (valeurs proches du blanc). C'est aussi pour ça qu'on préfère exposer "à droite" (c'est à dire surexposer sans pour autant cramer), quitte à descendre ultérieurement l'exposition, car on a un maximum d'information.
A cette captation, il y a le dématricage : chaque photosite du capteur ne capte qu'un seul canal (matrice de Bayer). Les pixels de l'image sont donc reconstitués en fonction de ce qu'on capté les photosites adjacents. Enfin, on applique une courbe de transfert qui vient transformer les valeurs de luminance du capteur en valeurs de l'image, car si on appliquait une courbe linéaire, on aurait un contraste pas du tout comme le voit l'oeil humain.

bref, je reste tout à fait d'accord sur le fait qu'il ne sert à rien d'avoir un ensemble déséquilibré : comme toujours, le maillon le plus faible est le plus limitant (un super capteur, un encodage du tonnerre... mais une optique de merde, et c'est une photo techniquement foireuse), et qu'une photo, c'est aussi une part d'émotion, de souvenirs, bref, la technique est un point à considérer, mais même des photos techniquements bancales sont parfois fortes de sens.