Citation Envoyé par f-m Voir le message

Tout simplement parce que des données brutes de capteur quelque soit le capteur, de la webcam aux megacams scientifiques en passant par le capteur du portable, c'est 1 photosite-1 intensité, point barre. C'est pour ça que ça s'appelle "brut". Pas besoin de sortir de saint cyr pour définir le nombre de photosites, leur agencement, la plage des intensités, dans un format universel.
Comme je dis toujours, quand on ne connaît qu'une partie de quelque chose, tout semble si simple !

As-tu déjà conçu un "front-end" allant du capteur optique jusqu'au stockage des données brutes dans une mémoire ? (je parle bien de "hard" et pas du travail d'un "softeux".
Comment affirmer qu'un "capteur" est linéaire sur toute sa plage ? Pourquoi un capteur "A" aurait strictement le même comportement qu'un capteur "B" ? Déjà rien qu'en fonction de la topologie du "front-end" qui se trouve juste après le capteur, ce dernier aura une réponse variable.
Et puis ensuite, en fonction de la structure de la chaîne d'acquisition du signal retenue (i.e.: une seule voie avec beaucoup de dynamique, ou plusieurs voies avec une dynamique plus faible, etc.) comment il est possible que les données brutes d'un appareil soient comparables avec les données brutes d'un autre ayant une chaîne d'acquisition différente ?

Certes il est possible de standardiser un format, mais dans ce cas on ne peut plus parler de données brutes.

Le format "standard" ça existe déjà dans nos reflex numériques: C'est le Jpeg. Pourquoi vouloir que les données brutes "raw" soient "traitées" de façon standard ???