Bonjour,
je m'intéresse à la photo infrarouge, je pense faire une formation courte sur le sujet, est-ce que des membres pratiquent cette technique ?
merci de vos retours
Version imprimable
Bonjour,
je m'intéresse à la photo infrarouge, je pense faire une formation courte sur le sujet, est-ce que des membres pratiquent cette technique ?
merci de vos retours
C'est pas faisable sur des boîtiers numériques normaux, il faut retirer le filtre infra-rouge qui est présent devant le capteur comme pour la photo astronomique...
Je l'ai pratiquée en argentique. J'aimais assez le rendu des paysages.
Il faut defiltrer l'apn c'est a dire enlever le filtre IR et UV bloquant place au dessus du capteur.
Apres il y a le choix soit de laisser tel quel et dans ce cas les pixels bleus voir baver et voir les UV, les verts normaux et les rouges capter rouge et IR (jusqu'a 1000nm, au dessus le silicium est transparent)
Ou alors tu remets un filtre:
soit qui laisse passer une bande plus large mais bloque les UV (a mon avis c'est la meilleur solution)
soit tu mets un filtre qui ne laisse passer que les IR ou une partie des IR (Halpha pour l'astronomie) les pixels bleus et vert ne servent quasiment plus
La mise au point se fait en manuel car l'infini en IR n'est pas la meme chose qu'en visible, le calcul d'exposition est a revoir aussi (les objet renvoie differement en IR, le gris a 18% ne marche pas non plus). Ce n'est pas a la rue mais attention quand meme
Si tu utilises un filtre IR l'expo est de toute facon a l'ouest (surtout sur un Halpha car on ne laisse pas passer bcp de lumiere)
Et apres toute la post prod est a revoir (ou pas en fonction des affinites)
Merci à tous de vos retour.
j'ai bien compris les prérequis de cette pratique,
avant d'y passer je vais participer à un workshop par un pro,
dans la gamme des boitiers Canon non reflex, y-t-il un boitier que vous recommanderiez plus qu'un autre ? dans le stage que je ferai ils prêtent des boitiers G15 et G16, après il faudra des filtres je verrai suivant ce que je retiens et les rendus que je souhaite obtenir
merci à vous
Très intéressant, j'en connaissais une bonne partie mais pas tout.
Je me suis toujours posé la question du hyatus entre le rouge et l'infrarouge. En argentique, pour accentuer l'effet, on mettait un filtre rouge sur l'objectif, ce qui arrêtait les rayons bleu-vert.
Sinon, ça rendait pas mal mais moins tranché.
Est-ce qu'on peut avoir UNIQUEMENT l'infrarouge?
Dans la catégorie "art & essais", parce qu'en photo professionnelle, un peu difficile à vendre, un portrait aux yeux de lapin. ;))
Ca dépend du lapin a mon humble avis :D
Salut
Un peu physique du semiconducteur :D
Le rouge s'arrete dans le silicium au bout de 5-6 microns (1 micron pour le bleu et 2 pour le vert).
Pourquoi ca s'arrete? En fait un photon rencontre un premier atome qui l'excite. L'atome se desexcite en emettant dans un semiconducteur une paire d'electron et trou et relache un photon avec une energie un peu plus faible (la difference se dissipe dans les vibrations du reseau atomique aka phonons), ce nouveau photon va sur l'atome suivant et on repete l'operation. Au bout d'un certain temps le photon n'a plus assez d'energie pour exciter un atome et son energie se dissipe. Ce certain temps depend de la longueur d'onde du photon ou de sa couleur (400nm pour le bleu, 500 pour le vert 600 pour le rouge a la hache).
Un infrarouge est aussi un photon (sisi) mais qui a une longueur d'onde plus grande que celle du rouge (en gros de 700nm a 10000nm). Sur le Silicium la partie infrarouge effective c'est entre 700nm et 1100nm, au dessus de 1100nm le silicium est transparent et non sensible aux photons
Une photodiode a une epaisseur active de 5 a 20 microns (en fonction des technologies utilisees) Ce qui fait que les photons d'une longueur superieure a 600nm delivrent du courant dans cette epaisseur (ou volume en 3D). Ce qui fait que les pixels rouges peuvent voir plus que le rouge sauf si on a un filtre audessus
En posant un filtre passe bande entre 400nm et 600nm on bloque les photons d'une longueur d'onde plus grande que 600nm (ce n'est pas parfait mais on limite d'un facteur 1000 le flux de photons IR)
On peut tout a fait placer un autre type de filtre, comme le fameux Halpha qui laisse passer les photons issus de l'ionisation des atomes d'hydrogene dans les nebuleuses a 650nm il me semble.
On peut tout a fait avoir un filtre qui laisse passer de 600nm a 1200nm, ou avoir une multitude de filtres qui laissent passer une bande de longueur d'onde de 20nm entre 600 et 1200nm (hyperspectral ou utilise poru faire de la spectrometrie).
Je bosse en ce moment sur un capteur qui bosse dans cette gamme, on a entre 600 et 1100nm 64 canaux qui ont chacun leur filtre.
Ces filtres sont differents d'un simple filtre rouge (ou filtre organique) que tu mentionnes. Ce sont des filtres a interference c'est a dire qu'on a un certain nombre de couches de 2 ou 3 materiaux different qui sont assemble pour bloquer certaines longueurs d'ondes (on joue sur la sommation ou soustraction des ondes). Ces filtres sont depose directement sur la surface du capteur, impossible a enlever, mais nettement meilleur qu'un filtre organique
Si on veut plus que 1100nm on passe a autre chose que le silicium et la j'ai du boulot pour les 2 prochaines annees.
:clap_1:: :clap_1::
Un grand merci pour ces explications tres claires ..
merci de ces explications très physiques, lumineux si je puis dire, yapluka :D:thumbup::
Le problème vient de ce que les couleurs ne sont pas déviées de la même manière lors d'une interface : une lumière blanche qui traverse un prisme sort en un arc en ciel
https://upload.wikimedia.org/wikiped...-black.svg.png
C'est ce même phénomène qui créé les abbérations chromatiques : lorsque la lumière passe au travers des lentilles, les différentes longueurs d'ondes sont déviées différemment, de manière légère, mais réelle, qui amène ce phénomène lorsque cette déviation est supérieure à la taille d'un photosite.
La déviation est non négligeable pour l'infrarouge par rapport à la lumière visible : d'où une mise au point à décaler, car les rayons se croisent alors devant ou derrière le capteur par rapport aux rayon en lumière visible... c'est à dire que la photo est floue :)
Comme dit par BZHades on a un etalement du spectre qui s'amplifie vers les grandes longueurs d'onde, ce qui fait qu'en theorie si tu shoote un sujet bleu ou rouge la position de la mise au point n'est pas la meme, en pratique et avec la zone de focus assez large ca se compense, ce qui n'est pas le cas en IR
D'ailleurs en IR la reference de gris marche moins bien, car pour imprimer un gris on utilise des pigments, et ces pigments reagissent differement en IR. Ca a casse les pieds a des collegues pour des capteurs 3D qui fonctionnent en IR (3D car on mesure la distance au sujet). La phase de calibrage/test/characterisation s'en trouve nettement plus compliquee