Je crois que je vais opter pour le 50D et son raw. Quitte à sacrifier le h264... Et tester les Luts cinéma de Vision Color
Version imprimable
Je crois que je vais opter pour le 50D et son raw. Quitte à sacrifier le h264... Et tester les Luts cinéma de Vision Color
Concernant l'exposition à droite, n'est-il pas parfois préférable de laisser cramer des petites zones négligeables qui ne seront jamais récupérables, comme la source de lumière d'un éclairage public ?
Et la nuit, pousser les isos peu importe la limite, du moment qu'on ait l'expo à droite ?
A "droite" veut dire qu'on conserve tout la plage dynamique du capteur en déplaçant l'ensemble de la courbe d'exposition vers la droite de l'histogramme, sans clipper les blancs.
De toute façon un éclairage urbain sur fond de nuit sera forcément clippé....
oui, il est possible d'accepter qu'une zone soit clippée!! C'est le choix du réalisateur!
Fran6
C'est pour ça que je règle mes zebras sur 98 % en luminosité (je ne me sers pas trop de l'histogramme en tournage)
ça m'indique des zones très ponctuelles que je sais être limite.
RGB.
Ton appareil tourne en RGB, continue toute ta chaîne en RGB.
Dac Merci
Toujours instructif et passionnant de lire vos discussions messieurs!
Concernant les lut j'ai une question pour bien comprendre.
vous parlez de LUT 3d ou autre a appliquer, mais c'est quoi au juste? Un prereglage de courbe c'est ca? peux t on ateindre ce resultat en travaillant sur les coubes ou autres luminance etc? En manuel je veux dire.
Ou vaut il mieux les appliqués pour ensuite travailler?
Merci pour votre retour.
sur resolve j'etalone sans appliquer ces fameuses LUT.
Cette courbe permet simplement de retrouver le contraste et la luminosité dans les basses et hautes lumières car les réglages du "Style d'image "Technicolor Cinestyle" produit une image "plate", c'est donc une des étapes de l'étalonnage.
Pas d'étalonnage sans travail sur le contraste si on utilise un "Picture Style Flat" !
> En revanche il est possible de se contenter d'équilibrer le contraste et la luminosité sans effectuer nécessairement un travail colorimétrique d'étalonnage...
L’étalonnage a plusieurs objectifs :
1) ré-équilibrer un ensemble de plans dont la balance des blancs n'est pas toujours parfaite
2) Homogénéiser la couleur et le contraste d'un ensemble de plans qui ont été bien exposés mais qui ont été filmés dans des ambiances lumineuses très différentes : intérieur / extérieur / lumière artificielle / naturelle...afin de les rassembler sur une seule séquence !
3) Rattraper l'équilibre chromatique et l'exposition de plans qui ont été mal exposés au tournage (afin de les rendre exploitables au montage)
3) Donner un "caractère" à l'image afin de lui donner "un genre" qui va participer à la narration du film
en fouinant un peu j'ai trouver cette réponse de fran 6, donc c'est ce que je faisait, une sorte de S avec les courbes mais en corrigeant chaque canal à mon souhait. Ça se fait naturellement en fait, on est guidés par ce qu'on recherche.
par contre c'est quoi cette LUT 3D? Est ce différent de ce travail effectuer?
Oui et non. En gros une LUT va te permettre de modifier tes images d'un clic. Ce qui ne t'affranchiras pas de réglages plus subtils persos.
LUT = table de conversion (in French).
C'est un peu technique, mais moi j'ai compris... http://www.studioa1.org/a1box/pdf/LUT_What_is_it.pdf
Technique en effet!
Oui ça reste compréhensible sur certain point après il y a des thermes que je ne connais pas, forcément du à mon manque d'expérience. Mais c'est déjà plus clair, merci.
Je viens de parcourir ce sujet en details apres avoir filmer avec mon 600d + 8Mm samyang avec une moyenne de 6400 isos (iso autos) , autant dire ca bruite enormement (f3.5 et la piste de danse etait vraiment peu eclairee). Existe til une methode moins compliqué pour reduire le bruit numerique dune video? Un logiciel tout automatique? Je suis bien conscient que le resultat sera moins bons.
Hélas, 6400 c'est irrécupérable - déjà sur un grand capteur comme le mIII, c'est un niveau déconseillé. Alors sur un capteur de 600D... :blink::
Nat Vidéo et Red Giant, font des "Denoiser" - débruiteurs - mais ça ne fais pas de miracle du tout, surtout à 6400.
C'est une très mauvaise pratique les ISO "auto"... Il faut toujours tourner en mode manuel "M", ainsi, pas de risque, sinon assumé.
6400 Iso, la frontière est effectivement largement dépassée sur un 600D.
Il est toujours possible de rattraper seulement les masses unies et sombres avec Neat, surtout si les zones lumineuse sont moins touchées... Mais ça va lisser fort.
Fran6
Je n'avais malheureusement jamais filmer à cette résolution. En zone claire, la qualité me convient tres bien mais je dois etre en 1600isos max. Je connaissais la limite de mon boitier en photos (jutilises jamais les isos autos en photos) mais en video je nai pas du tout fait attention.
Bon jai tester Neat video couple à vegas movis studio... Ca enleve un bon paquet de bruit mais ca a tout lissé... On dirait une video faites de personnes de cire... Apres Neat video na pas ete capable de trouver une partie a debruiter superieur a 53%, je ne sais pas si ca vient d la ou juste parce que je ne suis pas rentrer dans les sous reglages de neat Video (bien quen cliquant un peu partout ca lisse quand meme enormement)
Neat est de l'avis général un des meilleurs outils du marché...
C'est un outil bien plus complexe qu'il n'y parait !
Je pense qu'il faut que tu apprennes simplement à l'utiliser avant d'avoir ce genre propos...
Je suis un professionnel de l'image et je dois t'avouer que j'apprends régulièrement, chaque jour, et que j'ai encore bien des choses à apprendre sur l'utilisation de Neat...
J'ai payé (cher) une petite formation spécifique pour exploiter au mieux cet outil, et je ne le regrette pas.
Fran6
Oui cest sur que je ne maitrise pas du tout ce logiciel. Est ce qu'en trouvant une zone atteignant les 80% (le tuto de neat video (ici--> Neat Vidéo) donne une zone minimale de 80%) je ne rencontrerais pas ce type de lissage ou est ce seulement car jai largement depasser les limites de mon pauvre 600D?
Après, quand y a trop de bruit... y a trop de bruit. 6400 ISO sur un 600D... car en ISO Auto, quel soft peut rattraper ça sans dégâts ?
Bon je poursuis mes recherches sur NeatVideo. Mon lissage etait en grande partie lie à mon traitement : je configurais le temporal filter : radius sur 1
Le Transfert Pellicule... :: neat video
1=(défaut) c'est bien, 2= encore mieux, 3= encore encore mieux.
En mettant à 3 jai nettement moins de lissage et la cest bien + acceptable. Par contre, impossible de trouver une zone me permettant de depasser les 53% dans mon profil (video en salle, avec tres peu de lumiere).
est ce que l'on gagne a passer le radius à 4? voire +?
erreur
Dans NEAT, tu peux utiliser des profils (de correction) que tu auras soit créé toi même, soit récupéré sur leur site, par ici :
Neat Image :: library of noise profiles
Les profils intègrent les bruits "type" selon les ISO. Ils se téléchargent, et s'ouvrent dans NEAT via la fonction "load profil", avec de meilleurs résultats qu'une image sans zone suffisante.
Merci pour les profils. Par contre, je ne connais pas precisement la valeur iso des videos, je sais que je suis monte a 6400 isos. Comment peux ton connaitre la valeur moyenne en iso dune video? Facile a faire sur une photo mais cote video je ne sais pas trop quels softs utilises pour ça. Malgres ces profils "types" je dois tout de meme configurer la partie Noise filter setting? Aperemment oui
Le profil type, bien sûr, ne correspond qu'au bruit potentiel, pas à ta correction que tu dois régler toi-même selon...c'est normal. Pour le reste, je ne peux rien faire de plus.
Désolé de remonter un peu (beaucoup en fait :D) dans le sujet, mais une des remarques de Francis a éveillé en moi une intérogation:
Si je ne me trompe pas, Magic Lantern ne propose à l'heure actuelle que de continuer à filmer en h264 (en modifiant ou non le bitrate), ou alors de filmer directement en RAW.
Est-ce qu'il y a une contrainte technique qui empêcherait Magic Lantern de nous proposer une solution intermédiaire en nous permettant de filmer en Prores 4.4.4 ? Quasiment aussi bien que le RAW mais avec des fichiers 50% plus léger !
Je suppose que je ne suis pas le premier à y penser, il doit y avoir un loup quelque part?
Oui, il manque juste un processeur qui encode en ProRes....
Le processeur du Canon est programmé pour encoder en H264 et le circuit interne est structuré pour cela.
Le RAW n'est pas le résultat d'un encodage, mais seulement le fichier Brut "directement" issu du Capteur.
Magic Lantern ne se substitue pas au firmware de Canon, qui ne peut être retiré...
ML débride des fonctions par contournement, par déblocage, par prise en main détrournée, mais le firmware de Canon reste toujours disponible.
Le firmware n'a juste rien à voir avec la programmation du processeur. L'intelligence du boitier se trouve sur la puce, sur la carte mère.
Le firmware n'est qu'un utilitaire qui active l'ergonomie et les fonctionnalités internes... rien d'autre.
Pour encoder en ProRes il faudrait programmer le processeur, et modifier l'architecture interne du boitier...
Fran6
Réponse presque synchrone avec Fran6.
Ne serait-ce que parce que ML utilise le H264 natif des boitiers, le RAW, c'est facile aussi, car c'est récupérer les données brutes de capteurs... encoder en ProRes, c'est peut-être plus difficile pour des caméras non dédiées, entrer dans le code source de l'encodage via le processeur... C'est technique et pas aussi direct que yaka. l'Alexa intègre un encodeur, l'Atomos aussi... pour la gamme des EOS si différents - entre les 700D et le 5DmIII, pas prévus du tout pour ça, avec en plus la connexion de boitiers externes qui le font très bien, je comprend que la priorité n'est pas là chez eux.
Je me doutais bien que c'était une histoire de processeur. Mais je m'étais dit que le Prores étant moins compressé que le H264, ça devrait être possible.
Effectivement je n'avais pas pensé au fait que ça devait être géré par le firmware de Canon. C'est vrai que quand on y réfléchi, le RAW ne se contente que de transférer vers la carte SD/CF les informations brutes du capteur.
Merci pour vos réponses !
Justement non !
J'ai tenté d'expliquer que le firmware est une partie logicielle qui ne gère que l'ergonomie. Une boite à bouton, qui active ou appelle des fonctions...
C'est comme le tableau de bord d'une voiture : le volant, les clignotants, les pédales...
Le moteur, c'est le processeur.
Il faut que le processeur soit programmé, et qu'il ait une structure spécifique pour réaliser l'opération.
Un encodeur H264 n'a pas la même structure physique qu'un encodeur Prores.
Fran6