Bonjour & Bienvenue sur EOS-Numerique
Réseaux Sociaux : Follow us on Facebook Follow us on Twitter


Sign Up






Affichage des résultats 1 à 42 sur 42

Vue hybride

  1. #1
    Membre
    Inscription
    May 2005
    Localisation
    Saint Maur des Fossés (94)
    Âge
    65
    Messages
    1 066

    Par défaut

    Juste mon grain de sel:

    les avis comme "12MP ou 10MP ou 8Mp ou 15Mp sont suffisants" n'ont pas, AMHA, vraiment de sens.

    On disait que 16 Mo de Ram sur un PC était largement suffisant pour la nuit des temps il n'y a que 10 ans. Aujourd'hui la RAM se compt avec un facteur 1000 de plus!

    Pour les MP, comment savoir quelle techno d'impression ne saura pas exploiter des GP pour être capable de nous sortir des photos sur papier qui ressemblent un peu plus à des tirages argentiques?

    Il y a 2 sortes de progrès:
    - ceux appelés par les usagers et effectivement avec des techno "stables" des capteurs + imprimantes actuelles, les 10-20MP semblent être un pallier
    - ceux produits par les innovations, et là, personne n'a de boule de cristal pour connaîte les évolutions

    Il y a des dizaines de manière d'imaginer des capteurs en GP (même sur 24x36), par exemple sur le même "site" du capteur, 10 photosites qui auraient chacun une sensibilité différente et qu'un logiciel intégré traiterait pour donner 3 ou 4 "meilleures images possible"... une piste pour les zones bouchées et les blancs cramés...

    Ne diffusez pas l'info, je vais déposer le brevet

  2. #2
    Membre Avatar de PHY
    Inscription
    January 2006
    Localisation
    bretagne
    Messages
    1 436
    Boîtier
    EOS
    Objectif(s)
    EF & EF-S

    Wink

    Citation Envoyé par TNK
    On disait que 16 Mo de Ram sur un PC était largement suffisant pour la nuit des temps il n'y a que 10 ans. Aujourd'hui la RAM se compt avec un facteur 1000 de plus!
    Hola on s'est laissé emporter par le feu de la discussion ! 16Mo fois 1000 est égale à environ 16Go (je sais le facteur est 1024 sur la RAM mais 1000 sur les disques durs allez comprendre ). Bah moi mon PC il n'a pas encore 16Go :p

    Bon allez c'est un facteur 100 et puis si tu remontes quelques années en arrière tu l'a bien ton facteur 1000 et même plus. Le premier PC est sorti avec 64Ko si je me rappelles bien et le premier que j'ai eu avait 256Ko !

    Allez A+

  3. #3
    Membre
    Inscription
    February 2006
    Localisation
    ANNECY
    Âge
    80
    Messages
    5 595
    Boîtier
    EOS D
    Objectif(s)
    trop et pas assez ! ! !

    Par défaut

    Feux de l'action, non !
    On arrivera bientôt à 16 Go de Ram. Enfin elles sont pas encore sorties, mais...
    Il y a 2 ans beaucoup de PC avait 256 Mo, maintenant c'est 1 Go, voire 2 Go et, avec l'arrivée de Vista, il faudra encore monter rapidement en mémoire.
    Actuellement même les cartes graphiques ont 512 Mo (autant que les PC d'il y a 2 ans)

  4. #4
    Administrateur - Testeur Avatar de canon-passion
    Inscription
    June 2005
    Localisation
    Sur la planète Canon
    Messages
    27 853
    Boîtier
    EOS, FD, FL, R, RF...
    Objectif(s)
    RF, EF, FD, FL, S et je ne pars pas sans L ....
    Mes photos publiées

    Par défaut

    Citation Envoyé par PHY
    Hola on s'est laissé emporter par le feu de la discussion ! 16Mo fois 1000 est égale à environ 16Go (je sais le facteur est 1024 sur la RAM mais 1000 sur les disques durs allez comprendre ). Bah moi mon PC il n'a pas encore 16Go :p

    Bon allez c'est un facteur 100 et puis si tu remontes quelques années en arrière tu l'a bien ton facteur 1000 et même plus. Le premier PC est sorti avec 64Ko si je me rappelles bien et le premier que j'ai eu avait 256Ko !

    Allez A+

    Les DD sont aussi en 1024 puisque l'unité de mesure est l'octet et qu'un octet fait 8 bits !

    AMHA, les 16 Go en RAM sernot très vite là. On en est en courant à 2Go, certains en ont même 4. Aller, d'ici 12 à 18 mois on devrait vite y arriver.

  5. #5
    Membre Avatar de PHY
    Inscription
    January 2006
    Localisation
    bretagne
    Messages
    1 436
    Boîtier
    EOS
    Objectif(s)
    EF & EF-S

    Par défaut

    Citation Envoyé par canon-passion
    Les DD sont aussi en 1024 puisque l'unité de mesure est l'octet et qu'un octet fait 8 bits !

    AMHA, les 16 Go en RAM sernot très vite là. On en est en courant à 2Go, certains en ont même 4. Aller, d'ici 12 à 18 mois on devrait vite y arriver.
    Euh pas trop compris là :34: :34: Un octet fait effectivement 8 bits mais pas de rapport avec le facteur 1024 qui est une puissance de deux (2^10). Effectivement, les tailles de fichiers sont exprimés en puisssance de 2: 1ko =1024 octets, 1Mo=1024Ko et 1Go=1024Mo...

    Par contre, et c'est une bizarrerie quelque part, les fabricants de disques fonctionne en puissance de 10 et non de 2. Va voir ICI en bas de la page tu as "GB equals one billion bytes when referring to hard drive capacity; accessible capacity may be less." 1GB = 1 milliard d'octets et non 1024*1024 ! Pour la capacité accessible, un disque dur et toujours donné en capacité NON formatté, le formatage te manges encore un peu.


    Pour les 16Go de RAM, je vous tiens le pari qu'on en sera pas là dans 12-18mois. En général c'est le temps qu'il faut pour doubler. Donc aujourd'hui 1Go est quasi le standard et 2Go pour les "machines puissantes". Donc dans 12-18mois ce sera 2Go en standard ce qui correspond bien à Vista qui sort en Janvier 2007 (donc dans 7-8 mois) et 4Go pour les + puissantes. Donc pour vos 16Go en standard, il vous faudra attendre un peu .

    NB: je sais qu'aujourd'hui en terme de capacité mémoire max, on trouve des laptop avec 4Go et des desktop avec 64Go (cf www.dell.fr). Mais bonjour les prix des modules et Windows XP gère 4Go max de RAM... Aujourd'hui les modules max font 4Gb et c'est environ 3000€ l'unité :blink: Je parles pour des PC, il est quasiment certains que les grands systèmes ont déjà des modules supérieur mais là les tarifs ne sont pas en ligne .

  6. #6
    Membre Avatar de PhB
    Inscription
    June 2005
    Localisation
    QC
    Messages
    5 790
    Boîtier
    XTi + 7D grippés
    Objectif(s)
    Quelques morceaux de verre/métal/plastique

    Par défaut

    Citation Envoyé par canon-passion
    Les DD sont aussi en 1024 puisque l'unité de mesure est l'octet et qu'un octet fait 8 bits !

    AMHA, les 16 Go en RAM sernot très vite là. On en est en courant à 2Go, certains en ont même 4. Aller, d'ici 12 à 18 mois on devrait vite y arriver.
    Je rejoins PHY : c'est pas pour demain. Le pb ne vient pas de la barrette ou de son prix (une carte-mère a souvent 4 slots DDR, ce qui fait mettre 4Go sur chq ?!), mais de l'utilité fonctionnelle : une photo .TIFF faisant env. 20-30Mo, à quoi servent 4Go de RAM ? Pour Vista ... et Word ou WinAmp ? . A part la vidéo, je ne vois pas, mais le plus utile sera alors le HD. Auj., on a quoi 500Go ? Avec 4Go de RAM, ça fait 125:1, soit avec le même rapport 64Go de disque pour 512Mo RAM. La réalité est diff. : le rapport RAM/HD est plus vers 160:1, soit 2Go de RAM et 300Gb de disque dur.

  7. #7
    Membre
    Inscription
    May 2005
    Localisation
    Saint Maur des Fossés (94)
    Âge
    65
    Messages
    1 066

    Par défaut

    Citation Envoyé par PhB
    Je rejoins PHY : c'est pas pour demain. Le pb ne vient pas de la barrette ou de son prix (une carte-mère a souvent 4 slots DDR, ce qui fait mettre 4Go sur chq ?!), mais de l'utilité fonctionnelle : une photo .TIFF faisant env. 20-30Mo, à quoi servent 4Go de RAM ? Pour Vista ... et Word ou WinAmp ? . A part la vidéo, je ne vois pas, mais le plus utile sera alors le HD. Auj., on a quoi 500Go ? Avec 4Go de RAM, ça fait 125:1, soit avec le même rapport 64Go de disque pour 512Mo RAM. La réalité est diff. : le rapport RAM/HD est plus vers 160:1, soit 2Go de RAM et 300Gb de disque dur.

    Heuhhh, sans vouloir être (trop) désagréable, ce que tu dis à propos de la nécessité de mémoire pour effectuer des traitements est assez n'importe quoi... les programmes qui traitent des données on besoin de mémoire, et de plus en plus de mémoire, pour stocker par exemple des résultats intermédiaires, des parties de résultats, plutôt que de les stocker temporairement sur le disque dur, sinon la vitesse d'exécution devient lamentable.
    En calul pur, on estime que la mémoire nécessaire augme comme le carré de la taille d'un problème donné (calculs de structure, de thermique, d'aérodynamique, d'aéro-accoustique, etc)
    Le calcul sur les images fait partie du même genre de problématique de programmation et demande des places mémoires gigantesques. Juste à titre d'exemple, certains traitements peuvent demander une "matrice carrée" dont la dimension de base est le nombre de pixels, la taille de la matrice en question est donc de 12Mox12Mo (5D), soit 144000Go
    Inutile de dire qu'aujourd'hui, ce type de traitement n'est pas implanté sur les logiciels grand public... (et sur les ordinateurs sur lesquels cela tourne, on ne stocke pas la matrice, mais on calcul "au fil de l'eau", le produit des termes de cette matrice avec d'autres éléments, calculant ainsi plusieurs fois ses termes sans les stocker, et augmentant le temps de calcul, mais préservant la place mémoire. Si le To devenait "courant", la façon d'implémenter l'algorithme conduirait certainement à stocker en mémoire la matrice)

  8. #8
    Membre Avatar de PhB
    Inscription
    June 2005
    Localisation
    QC
    Messages
    5 790
    Boîtier
    XTi + 7D grippés
    Objectif(s)
    Quelques morceaux de verre/métal/plastique

    Par défaut

    Citation Envoyé par TNK
    Heuhhh, sans vouloir être (trop) désagréable, ce que tu dis à propos de la nécessité de mémoire pour effectuer des traitements est assez n'importe quoi... les programmes qui traitent des données on besoin de mémoire, et de plus en plus de mémoire, pour stocker par exemple des résultats intermédiaires, des parties de résultats, plutôt que de les stocker temporairement sur le disque dur, sinon la vitesse d'exécution devient lamentable.
    En calul pur, on estime que la mémoire nécessaire augme comme le carré de la taille d'un problème donné (calculs de structure, de thermique, d'aérodynamique, d'aéro-accoustique, etc)
    Le calcul sur les images fait partie du même genre de problématique de programmation et demande des places mémoires gigantesques. Juste à titre d'exemple, certains traitements peuvent demander une "matrice carrée" dont la dimension de base est le nombre de pixels, la taille de la matrice en question est donc de 12Mox12Mo (5D), soit 144000Go
    Inutile de dire qu'aujourd'hui, ce type de traitement n'est pas implanté sur les logiciels grand public... (et sur les ordinateurs sur lesquels cela tourne, on ne stocke pas la matrice, mais on calcul "au fil de l'eau", le produit des termes de cette matrice avec d'autres éléments, calculant ainsi plusieurs fois ses termes sans les stocker, et augmentant le temps de calcul, mais préservant la place mémoire. Si le To devenait "courant", la façon d'implémenter l'algorithme conduirait certainement à stocker en mémoire la matrice)
    J'ai relu plus. fois ton post :34: parce que tu es plus pointu que moi sur ce sujet :thumbup:, donc d'abord merci pour ton éclairage .

    En revanche, si je comprends ton msg sur le calcul matriciel des images, il me semble que ça doit plus s'appliquer sur du calcul d'imagerie de synthèse 2D ou 3D (Catia et consorts) plutot que sur une image 'bitmap' (carte de points : comme son nom l'indique ...) dont le volume en Mo est fini : au-dela de sa taille max genre 25Mo (TIFF), de quoi a-t-on besoin ? Si on historise chq image modifiée ds sa totalité, on a en effet vite besoin de 2Go et plus, mais si on historise seulement les scripts de retouche pour laisser le travail de calcul au CPU dont c'est le boulot (qui plus est dispo facilement en 2GHz et + voire en double CPU), fonctionnellement ça me semble curieux d'avoir besoin de 4Go ou plus.
    Ces dern. années, j'observe surtout une escalade mutuellement profitable entre fondeurs et M$ : si le CPU est plus puissant, on peut inventer plus de fonctions (dont on n'a pas forcément besoin), et plus il y a de fonctions qui s'annoncent, plus "si, si, vs avez besoin d'un CPU 250Gz et demi" ...


    Sf erreur, c'est l'apparition des interfaces graphiques monochr. puis clr puis animées avec plein de mickeys qui nécessitent les Mo de RAM : il y a longtps j'avais implémenté un Word 5.5 sous DOS (pourtant avec italique "pré-WYSIWYG") sur un 8086 avec 640Ko de RAM. Avec Windows, c'est super, mais consommer 160Mo de RAM juste pour mettre en route le PC ... :bash: Linux a une autre approche : il charge en RAM ce dont il a besoin et pas tout un lot de plein de choses pas tjrs utiles ...


    Ds le meme tps, qd le 386DX est apparu (adressage RAM 32bits), les softs dispo dont Windows fonctionnaient en 16bits, ce qui me laisse l'AR-gout de n'avoir utilisé la pleine puissance de mon CPU d'alors qu'à une portion de ses capacités. Un peu comme Windows XP sur un Athlon-64 p.ex.

    Pour ma part, je conçois un espace RAM comme un espace pour les calculs intermédiaires, faits et refaits, un CPU qui calcule et qui est là seulement pour ça, une carte graph. qui décharge le CPU pour les calculs graph., et comme un ordinateur est un calculateur, ... qu'il calcule. L'espace RAM peut faire x fois la taille d'un document texte/audio/vidéo, ça ne change guère le tps de calcul (passé 512Mo en partic.). En vidéo et autres applis demandant du tps réel (acquis., Premiere, Avid, etc.), ok, mais retoucher une photo n'a pas besoin de tps réel puisqu'on retouche en fonction de param. soigneusement choisis, appliqués et corrigés si imparfaits.


    +1 avec toi sur l'équilibre entre RAM et HD pour éviter le swap disque. Mais qd je vois qu'un ordinateur a aujourd'hui besoin d'un OS qui prend 160Go juste pour dire bonjour, et etre pret à manipuler un doc graphique de 10Mo (ou texte de 100Ko ), je m'interroge sur la propreté du code : sur 50 millions de lignes de code, cbien sont juste un vestige du passé ? 75% ?

    Perso, je ne retouche pas une photo plus rapidement avec un PC doté de 4Go de RAM qu'avec mes 512Mo ... En revanche, si la version actuelle d'un soft requiert telles ou telles specs, il me suffit de rester sur la version v-1 pour 'doper' ma machine sans ajouter de RAM et en faisant l'impasse sur des fonctions dont je me suis passé jusqu'alors


    Je suis d'accord avec toi sur un point : qd les logiciels gd public seront capables de modifier une image en 'live', ce qui suppose un 'calcul dynamique' de l'image, ok, mais ces softs-là ne sont ni prêts ni compatibles avec nos PC actuels ... Ordinateurs quantiques ?

  9. #9
    Membre
    Inscription
    May 2005
    Localisation
    Saint Maur des Fossés (94)
    Âge
    65
    Messages
    1 066

    Par défaut

    Merci d'abord de pas trop mal prendre mon petit coup de gueule
    désolé, la passion me fait souvent "déborder"

    Je veux simplement dire qu'il existe des milliers d'algorithmes de traitement d'images qui existent mais qui ne sont pas implémentés dans les softs "grand public" (PS est-il vraiment d'ailleurs "grand public") et que ne n'est "que" puissance-mémoire qui font que ces algoritmes ne sont pas disponibles. Et d'autre part, c'est le besoin de mémoire qui croit plus vite (le carré au minimum) que le besoin de puissance....
    IL y a aussi le "confort" utilisateur, d'accès rapide aux images ou information gardées en cache (cela se paramètre sous PS) et avec un Imac disposant de 2Go de Ram, après une demi-heure de boulot, l'occupation mémoire est autour de 1.5 Go (parce que je l'ai limitée pour avoir un peu de Ram pour faire autre chose sans quitter PS)

    Je comprends parfaitement ta façon de faire avec les versions n-1... mais la techno et les évolutions de config s'adressent aux "nouvelles machines" et nouvelles fonctionnalités.

    Avec des processeurs 10 fois plus puissants et 100 fois plus de mémoire, de nouvelles fonctionnalités de traitement d'image seront disponibles.

    C'était le seul objet de mon post, énoncé un peu brutalement, ce dont je m'excuse à nouveau...

  10. #10
    Membre Avatar de rui
    Inscription
    April 2006
    Localisation
    Nievre
    Âge
    54
    Messages
    850
    Boîtier
    30D
    Objectif(s)
    17-55/2.8IS | 70-200/4IS | 85/1.8 | 30/1.4 | 105/2.8 Macro

    Par défaut

    Je précise, c'est juste hors sujet, comme ce fil qui s'éloigne petit à petit du sujet photo...

    Citation Envoyé par TNK
    ...En calul pur, on estime que la mémoire nécessaire augme comme le carré de la taille d'un problème donné (calculs de structure, de thermique, d'aérodynamique, d'aéro-accoustique, etc)
    Un calcul pur ? Faudrait définir ce que cela veut dire. Je suppose que tu veux parler, par exemple, des calculs matriciels ? D’une inversion de matrice qui est la base de pas mal de formulation mathématique ?
    Il est évident que si tu cherches à inverser une matrice 12M*12M "directement", ce n’est pas franchement possible, et je me doute que tu dois le savoir. Mais tu pourrais comme même dire à ceux qui n'ont jamais faire d'analyse numérique que l'on a inventé des méthodes "indirectes" (explicite ou implicite) pour "contourner" le problème, mais aussi des méthodes de résolution par bloc, des algorithmes de "réduction de matrice", des méthodes spécifiques pour matrice creuse car il est quand même rare, pour des problèmes physiques, d'avoir des matrices pleines, contrairement à l’imagerie. Mais je vais y revenir.
    Donc, oui, il est confortable d'avoir de la mémoire pour nos petits logiciels de traitement d'image, ou plutôt de photo, mais le seuil ou la quantité n'a plus d'influence sur la rapidité de traitement est rapidement atteint. Je ne vous donnerais de valeur car cela dépend de trop nombreux paramètre, et pour commencer l’OS…

    Tient, anecdote, dans le cadre de mes travaux de thèse en aérothermique, j'ai "traité" (je vous fais grâce des opérations) des thermogrammes (images provenant d'une caméra infra rouge). Sous matlab, le traitement mettait une dizaine de minute. Avec un petit programme fortran, sur la même machine, c'était environ 30 secondes... La mémoire ne fait pas tout, le plus souvent c'est le codage qui est déterminant. Nos amis informaticiens, ils sont nombreux sur ce forum, ne dirons pas le contraire

    Citation Envoyé par TNK
    Le calcul sur les images fait partie du même genre de problématique de programmation et demande des places mémoires gigantesques.
    Pas convaincu par cela, mais mon expérience en traitement d'image n'est pas très importante (moins de deux ans).Dans mon cas, les contraintes en imagerie sont très souvent directement liées à la formulation retenu, ou plutôt ou degré de précision choisie. Si c'est une formulation 2D, cela est très rarement important, même si la résolution est importante. Par contre si le temps intervient (formulation instationnaire), cela dépendra du nombre de pas de temps intermédiaire retenu, ou imposé par la formulation mathématique (problème de consistance)...
    Tient un exemple de grande photo, avec un traitement qui ne devait pas être trop important.

    Citation Envoyé par TNK
    Avec des processeurs 10 fois plus puissants et 100 fois plus de mémoire, de nouvelles fonctionnalités de traitement d'image seront disponibles.
    Si on te donne à choisir entre processeurs 10 fois plus puissants et 100 fois plus de mémoire ET processeurs 100 fois plus puissants et 10 fois plus de mémoire, tu choisirais quoi ?

    Mais bon, comme je l'ai dit, on est hors sujet
    Dernière modification par rui ; 28/05/2006 à 11h27.

  11. #11
    Membre Avatar de rui
    Inscription
    April 2006
    Localisation
    Nievre
    Âge
    54
    Messages
    850
    Boîtier
    30D
    Objectif(s)
    17-55/2.8IS | 70-200/4IS | 85/1.8 | 30/1.4 | 105/2.8 Macro

    Smile

    Pour croiser avec un autre fil qui parle des formats d'image, je vais prendre l'exemple du JPEG2000 et du JPEG. En prenant l'hypothèse que le JPEG2000 soit utilisable aussi facilement que le JPEG (pb de brevet), je me demande si les constructeurs auraient introduit ce nouveau format dans nos chers boîtiers ?.

    Pas si sur même si le jpeg2000 a de nombreux avantages. (Je vous laisse faire vos recherches sur Google . Pourquoi donc, parce qu'une transformé de fourier en cosinus (JPEG) demande moins de calcul et moins de mémoire qu'une transformé en ondellette (JPEG2000). Mais ce qu'il faut savoir c'est que pour la mémoire, le problème est très facilement contournable par des méthodes de résolution de matrice par bloc. Donc le seule problème réel reste la puissance du processeur embarqué, et donc indirectement de la puissance électrique consommée, du prix, de son réchauffement...

    Voila donc un exemple, parmi tant d'autre, qui montre que la mémoire ne fait pas tout, même si elle est très importante. Il existe bien entendu des cas particulier ou cela n'est plus vrai...
    Tout comme pour la photo, la quantité de pixel ne fait pas tout, sauf dans des cas encore particulier. En somme, on ne peut pas vraiment généraliser. Débat stérile quoi. Allez j'arrête. Bon dimanche.

  12. #12
    Membre
    Inscription
    May 2005
    Localisation
    Saint Maur des Fossés (94)
    Âge
    65
    Messages
    1 066

    Par défaut

    Citation Envoyé par PHY
    Hola on s'est laissé emporter par le feu de la discussion ! 16Mo fois 1000 est égale à environ 16Go (je sais le facteur est 1024 sur la RAM mais 1000 sur les disques durs allez comprendre ). Bah moi mon PC il n'a pas encore 16Go :p

    Bon allez c'est un facteur 100 et puis si tu remontes quelques années en arrière tu l'a bien ton facteur 1000 et même plus. Le premier PC est sorti avec 64Ko si je me rappelles bien et le premier que j'ai eu avait 256Ko !

    Allez A+
    On comptais la mémoire en Mo il y a quelques années, on la compte en Go aujoud'hui (sur les PC des particuliers), ce qui est le facteur 1000 dont je parle (ce qui est "courant", c'est de comparer les unités utilisées, pas le nombre qu'on met devant).

    On la compte en To depuis longtemps sur les serveurs et calculateurs.

  13. #13
    Membre Avatar de buggz
    Inscription
    February 2006
    Localisation
    Saint Germain en Laye (78), France
    Âge
    51
    Messages
    294
    Boîtier
    EOS 350D (pour ma femme), 40D
    Objectif(s)
    EF 70-200 F2.8 L IS - EF-S 60 F2.8 - EF-S 17-55 F2.8 IS

    Wink

    Citation Envoyé par TNK
    Juste mon grain de sel:

    les avis comme "12MP ou 10MP ou 8Mp ou 15Mp sont suffisants" n'ont pas, AMHA, vraiment de sens.

    On disait que 16 Mo de Ram sur un PC était largement suffisant pour la nuit des temps il n'y a que 10 ans. Aujourd'hui la RAM se compt avec un facteur 1000 de plus!

    Pour les MP, comment savoir quelle techno d'impression ne saura pas exploiter des GP pour être capable de nous sortir des photos sur papier qui ressemblent un peu plus à des tirages argentiques?
    Juste mon grain de sable

    Pour moi il n'y a pas lieu de comparer la RAM et les capteurs CCD ou CMOS

    Si on reste a taille constante capteur APS-C ou 24x36, on pourra difficilement monter dans les millions de pixels, les problemes physiques (diffraction, ...) empecheront d'aller plus loin et puis a quoi bon au dela de 300 dpi l'oeil humain ne voit pas la difference.

  14. #14
    Membre
    Inscription
    February 2006
    Localisation
    ANNECY
    Âge
    80
    Messages
    5 595
    Boîtier
    EOS D
    Objectif(s)
    trop et pas assez ! ! !

    Par défaut

    Juste mon grain de riz (asiatique)

    Dans l'avenir, il sera peut-être possible de monter dans les millions de pixels en gravant des capteurs double, triple, quadruple couches où chaque couche s'occuperait chacun d'une sensibilité.

  15. #15
    Membre
    Inscription
    May 2005
    Localisation
    Saint Maur des Fossés (94)
    Âge
    65
    Messages
    1 066

    Par défaut

    Citation Envoyé par buggz
    Juste mon grain de sable

    Pour moi il n'y a pas lieu de comparer la RAM et les capteurs CCD ou CMOS

    Si on reste a taille constante capteur APS-C ou 24x36, on pourra difficilement monter dans les millions de pixels, les problemes physiques (diffraction, ...) empecheront d'aller plus loin et puis a quoi bon au dela de 300 dpi l'oeil humain ne voit pas la difference.
    RAM/Pixels était une simple analogie pour montrer le chemin des progrès technologiques.

    Tu parles de Millions de pixels... heuhh tu n'es pas au courant qu'on y est déjà?

    J'ai donné un exemple de capteurs où plusieurs sites pouraient être affectés de sensibilités différentes... c'était juste un exemple.

    Les avancées technologiques ne se font pas toujours de manière continue:

    " ce n'est pas en améliorant la bougie qu'on invente l'ampoule"

  16. #16
    Membre
    Inscription
    February 2006
    Localisation
    ANNECY
    Âge
    80
    Messages
    5 595
    Boîtier
    EOS D
    Objectif(s)
    trop et pas assez ! ! !

    Par défaut

    Citation Envoyé par TNK
    " ce n'est pas en améliorant la bougie qu'on invente l'ampoule"

    TB la phrase du jour. :thumbup: :thumbup:

 

 

Informations de la discussion

Utilisateur(s) sur cette discussion

Il y a actuellement 1 utilisateur(s) naviguant sur cette discussion. (0 utilisateur(s) et 1 invité(s))

Discussions similaires

  1. Infos sur le successeur du 5D
    Par HyperCanon dans le forum Discussions générales
    Réponses: 438
    Dernier message: 19/05/2008, 08h53
  2. un successeur a mon EOS 5 (Argentique)
    Par Lotus dans le forum Discussions techniques
    Réponses: 14
    Dernier message: 07/06/2007, 11h27
  3. Attendre le successeur de l'EOS 5D
    Par Dersou dans le forum Discussions générales
    Réponses: 46
    Dernier message: 29/10/2006, 19h51

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •  
Fuseau horaire GMT +1. Il est actuellement 06h58.
Powered by vBulletin® Version 4.2.5
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.
Search Engine Optimisation provided by DragonByte SEO (Pro) - vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.
Auto Closing Of Threads provided by Threads Auto Close (Lite) - vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.
Copyright © Eos-numerique 2004-2025
vBulletin Skin By: PurevB.com