Affichage des résultats 1 à 42 sur 42
Discussion: Successeur au EOS 5D ?
Vue hybride
-
24/05/2006, 20h10 #1
- Inscription
- May 2005
- Localisation
- Saint Maur des Fossés (94)
- Âge
- 65
- Messages
- 1 066
Juste mon grain de sel:
les avis comme "12MP ou 10MP ou 8Mp ou 15Mp sont suffisants" n'ont pas, AMHA, vraiment de sens.
On disait que 16 Mo de Ram sur un PC était largement suffisant pour la nuit des temps il n'y a que 10 ans. Aujourd'hui la RAM se compt avec un facteur 1000 de plus!
Pour les MP, comment savoir quelle techno d'impression ne saura pas exploiter des GP pour être capable de nous sortir des photos sur papier qui ressemblent un peu plus à des tirages argentiques?
Il y a 2 sortes de progrès:
- ceux appelés par les usagers et effectivement avec des techno "stables" des capteurs + imprimantes actuelles, les 10-20MP semblent être un pallier
- ceux produits par les innovations, et là, personne n'a de boule de cristal pour connaîte les évolutions
Il y a des dizaines de manière d'imaginer des capteurs en GP (même sur 24x36), par exemple sur le même "site" du capteur, 10 photosites qui auraient chacun une sensibilité différente et qu'un logiciel intégré traiterait pour donner 3 ou 4 "meilleures images possible"... une piste pour les zones bouchées et les blancs cramés...
Ne diffusez pas l'info, je vais déposer le brevet
-
25/05/2006, 21h34 #2
- Inscription
- January 2006
- Localisation
- bretagne
- Messages
- 1 436
- Boîtier
- EOS
- Objectif(s)
- EF & EF-S
Envoyé par TNK
). Bah moi mon PC il n'a pas encore 16Go :p
Bon allez c'est un facteur 100 et puis si tu remontes quelques années en arrière tu l'a bien ton facteur 1000 et même plus. Le premier PC est sorti avec 64Ko si je me rappelles bien et le premier que j'ai eu avait 256Ko !
Allez A+
-
26/05/2006, 07h15 #3
- Inscription
- February 2006
- Localisation
- ANNECY
- Âge
- 80
- Messages
- 5 595
- Boîtier
- EOS D
- Objectif(s)
- trop et pas assez ! ! !
Feux de l'action, non !
On arrivera bientôt à 16 Go de Ram. Enfin elles sont pas encore sorties, mais...
Il y a 2 ans beaucoup de PC avait 256 Mo, maintenant c'est 1 Go, voire 2 Go et, avec l'arrivée de Vista, il faudra encore monter rapidement en mémoire.
Actuellement même les cartes graphiques ont 512 Mo (autant que les PC d'il y a 2 ans)
-
26/05/2006, 07h26 #4
- Inscription
- June 2005
- Localisation
- Sur la planète Canon
- Messages
- 27 853
- Boîtier
- EOS, FD, FL, R, RF...
- Objectif(s)
- RF, EF, FD, FL, S et je ne pars pas sans L ....
Mes photos publiées
Envoyé par PHY
Les DD sont aussi en 1024 puisque l'unité de mesure est l'octet et qu'un octet fait 8 bits !
AMHA, les 16 Go en RAM sernot très vite là. On en est en courant à 2Go, certains en ont même 4. Aller, d'ici 12 à 18 mois on devrait vite y arriver.
-
26/05/2006, 08h35 #5
- Inscription
- January 2006
- Localisation
- bretagne
- Messages
- 1 436
- Boîtier
- EOS
- Objectif(s)
- EF & EF-S
Envoyé par canon-passion
Par contre, et c'est une bizarrerie quelque part, les fabricants de disques fonctionne en puissance de 10 et non de 2. Va voir ICI en bas de la page tu as "GB equals one billion bytes when referring to hard drive capacity; accessible capacity may be less." 1GB = 1 milliard d'octets et non 1024*1024 ! Pour la capacité accessible, un disque dur et toujours donné en capacité NON formatté, le formatage te manges encore un peu.
Pour les 16Go de RAM, je vous tiens le pari qu'on en sera pas là dans 12-18mois. En général c'est le temps qu'il faut pour doubler. Donc aujourd'hui 1Go est quasi le standard et 2Go pour les "machines puissantes". Donc dans 12-18mois ce sera 2Go en standard ce qui correspond bien à Vista qui sort en Janvier 2007 (donc dans 7-8 mois) et 4Go pour les + puissantes. Donc pour vos 16Go en standard, il vous faudra attendre un peu.
NB: je sais qu'aujourd'hui en terme de capacité mémoire max, on trouve des laptop avec 4Go et des desktop avec 64Go (cf www.dell.fr). Mais bonjour les prix des modules et Windows XP gère 4Go max de RAM... Aujourd'hui les modules max font 4Gb et c'est environ 3000€ l'unité :blink: Je parles pour des PC, il est quasiment certains que les grands systèmes ont déjà des modules supérieur mais là les tarifs ne sont pas en ligne.
-
26/05/2006, 18h15 #6
- Inscription
- June 2005
- Localisation
- QC
- Messages
- 5 790
- Boîtier
- XTi + 7D grippés
- Objectif(s)
- Quelques morceaux de verre/métal/plastique
Envoyé par canon-passion
. A part la vidéo, je ne vois pas, mais le plus utile sera alors le HD. Auj., on a quoi 500Go ? Avec 4Go de RAM, ça fait 125:1, soit avec le même rapport 64Go de disque pour 512Mo RAM. La réalité est diff. : le rapport RAM/HD est plus vers 160:1, soit 2Go de RAM et 300Gb de disque dur.
-
27/05/2006, 15h11 #7
- Inscription
- May 2005
- Localisation
- Saint Maur des Fossés (94)
- Âge
- 65
- Messages
- 1 066
Envoyé par PhB
Heuhhh, sans vouloir être (trop) désagréable, ce que tu dis à propos de la nécessité de mémoire pour effectuer des traitements est assez n'importe quoi... les programmes qui traitent des données on besoin de mémoire, et de plus en plus de mémoire, pour stocker par exemple des résultats intermédiaires, des parties de résultats, plutôt que de les stocker temporairement sur le disque dur, sinon la vitesse d'exécution devient lamentable.
En calul pur, on estime que la mémoire nécessaire augme comme le carré de la taille d'un problème donné (calculs de structure, de thermique, d'aérodynamique, d'aéro-accoustique, etc)
Le calcul sur les images fait partie du même genre de problématique de programmation et demande des places mémoires gigantesques. Juste à titre d'exemple, certains traitements peuvent demander une "matrice carrée" dont la dimension de base est le nombre de pixels, la taille de la matrice en question est donc de 12Mox12Mo (5D), soit 144000Go
Inutile de dire qu'aujourd'hui, ce type de traitement n'est pas implanté sur les logiciels grand public... (et sur les ordinateurs sur lesquels cela tourne, on ne stocke pas la matrice, mais on calcul "au fil de l'eau", le produit des termes de cette matrice avec d'autres éléments, calculant ainsi plusieurs fois ses termes sans les stocker, et augmentant le temps de calcul, mais préservant la place mémoire. Si le To devenait "courant", la façon d'implémenter l'algorithme conduirait certainement à stocker en mémoire la matrice)
-
27/05/2006, 17h07 #8
- Inscription
- June 2005
- Localisation
- QC
- Messages
- 5 790
- Boîtier
- XTi + 7D grippés
- Objectif(s)
- Quelques morceaux de verre/métal/plastique
Envoyé par TNK
.
En revanche, si je comprends ton msg sur le calcul matriciel des images, il me semble que ça doit plus s'appliquer sur du calcul d'imagerie de synthèse 2D ou 3D (Catia et consorts) plutot que sur une image 'bitmap' (carte de points : comme son nom l'indique ...) dont le volume en Mo est fini : au-dela de sa taille max genre 25Mo (TIFF), de quoi a-t-on besoin ? Si on historise chq image modifiée ds sa totalité, on a en effet vite besoin de 2Go et plus, mais si on historise seulement les scripts de retouche pour laisser le travail de calcul au CPU dont c'est le boulot (qui plus est dispo facilement en 2GHz et + voire en double CPU), fonctionnellement ça me semble curieux d'avoir besoin de 4Go ou plus.
Ces dern. années, j'observe surtout une escalade mutuellement profitable entre fondeurs et M$ : si le CPU est plus puissant, on peut inventer plus de fonctions (dont on n'a pas forcément besoin), et plus il y a de fonctions qui s'annoncent, plus "si, si, vs avez besoin d'un CPU 250Gz et demi" ...
Sf erreur, c'est l'apparition des interfaces graphiques monochr. puis clr puis animées avec plein de mickeys qui nécessitent les Mo de RAM : il y a longtps j'avais implémenté un Word 5.5 sous DOS (pourtant avec italique "pré-WYSIWYG") sur un 8086 avec 640Ko de RAM. Avec Windows, c'est super, mais consommer 160Mo de RAM juste pour mettre en route le PC ... :bash: Linux a une autre approche : il charge en RAM ce dont il a besoin et pas tout un lot de plein de choses pas tjrs utiles ...
Ds le meme tps, qd le 386DX est apparu (adressage RAM 32bits), les softs dispo dont Windows fonctionnaient en 16bits, ce qui me laisse l'AR-gout de n'avoir utilisé la pleine puissance de mon CPU d'alors qu'à une portion de ses capacités. Un peu comme Windows XP sur un Athlon-64 p.ex.
Pour ma part, je conçois un espace RAM comme un espace pour les calculs intermédiaires, faits et refaits, un CPU qui calcule et qui est là seulement pour ça, une carte graph. qui décharge le CPU pour les calculs graph., et comme un ordinateur est un calculateur, ... qu'il calcule. L'espace RAM peut faire x fois la taille d'un document texte/audio/vidéo, ça ne change guère le tps de calcul (passé 512Mo en partic.). En vidéo et autres applis demandant du tps réel (acquis., Premiere, Avid, etc.), ok, mais retoucher une photo n'a pas besoin de tps réel puisqu'on retouche en fonction de param. soigneusement choisis, appliqués et corrigés si imparfaits.
+1 avec toi sur l'équilibre entre RAM et HD pour éviter le swap disque. Mais qd je vois qu'un ordinateur a aujourd'hui besoin d'un OS qui prend 160Go juste pour dire bonjour, et etre pret à manipuler un doc graphique de 10Mo (ou texte de 100Ko), je m'interroge sur la propreté du code : sur 50 millions de lignes de code, cbien sont juste un vestige du passé ? 75% ?
Perso, je ne retouche pas une photo plus rapidement avec un PC doté de 4Go de RAM qu'avec mes 512Mo ... En revanche, si la version actuelle d'un soft requiert telles ou telles specs, il me suffit de rester sur la version v-1 pour 'doper' ma machine sans ajouter de RAM et en faisant l'impasse sur des fonctions dont je me suis passé jusqu'alors
Je suis d'accord avec toi sur un point : qd les logiciels gd public seront capables de modifier une image en 'live', ce qui suppose un 'calcul dynamique' de l'image, ok, mais ces softs-là ne sont ni prêts ni compatibles avec nos PC actuels ... Ordinateurs quantiques ?
-
27/05/2006, 19h11 #9
- Inscription
- May 2005
- Localisation
- Saint Maur des Fossés (94)
- Âge
- 65
- Messages
- 1 066
Merci d'abord de pas trop mal prendre mon petit coup de gueule
désolé, la passion me fait souvent "déborder"
Je veux simplement dire qu'il existe des milliers d'algorithmes de traitement d'images qui existent mais qui ne sont pas implémentés dans les softs "grand public" (PS est-il vraiment d'ailleurs "grand public") et que ne n'est "que" puissance-mémoire qui font que ces algoritmes ne sont pas disponibles. Et d'autre part, c'est le besoin de mémoire qui croit plus vite (le carré au minimum) que le besoin de puissance....
IL y a aussi le "confort" utilisateur, d'accès rapide aux images ou information gardées en cache (cela se paramètre sous PS) et avec un Imac disposant de 2Go de Ram, après une demi-heure de boulot, l'occupation mémoire est autour de 1.5 Go (parce que je l'ai limitée pour avoir un peu de Ram pour faire autre chose sans quitter PS)
Je comprends parfaitement ta façon de faire avec les versions n-1... mais la techno et les évolutions de config s'adressent aux "nouvelles machines" et nouvelles fonctionnalités.
Avec des processeurs 10 fois plus puissants et 100 fois plus de mémoire, de nouvelles fonctionnalités de traitement d'image seront disponibles.
C'était le seul objet de mon post, énoncé un peu brutalement, ce dont je m'excuse à nouveau...
-
28/05/2006, 11h24 #10
- Inscription
- April 2006
- Localisation
- Nievre
- Âge
- 54
- Messages
- 850
- Boîtier
- 30D
- Objectif(s)
- 17-55/2.8IS | 70-200/4IS | 85/1.8 | 30/1.4 | 105/2.8 Macro
Je précise, c'est juste hors sujet, comme ce fil qui s'éloigne petit à petit du sujet photo...
Envoyé par TNK
Il est évident que si tu cherches à inverser une matrice 12M*12M "directement", ce n’est pas franchement possible, et je me doute que tu dois le savoir. Mais tu pourrais comme même dire à ceux qui n'ont jamais faire d'analyse numérique que l'on a inventé des méthodes "indirectes" (explicite ou implicite) pour "contourner" le problème, mais aussi des méthodes de résolution par bloc, des algorithmes de "réduction de matrice", des méthodes spécifiques pour matrice creuse car il est quand même rare, pour des problèmes physiques, d'avoir des matrices pleines, contrairement à l’imagerie. Mais je vais y revenir.
Donc, oui, il est confortable d'avoir de la mémoire pour nos petits logiciels de traitement d'image, ou plutôt de photo, mais le seuil ou la quantité n'a plus d'influence sur la rapidité de traitement est rapidement atteint. Je ne vous donnerais de valeur car cela dépend de trop nombreux paramètre, et pour commencer l’OS…
Tient, anecdote, dans le cadre de mes travaux de thèse en aérothermique, j'ai "traité" (je vous fais grâce des opérations) des thermogrammes (images provenant d'une caméra infra rouge). Sous matlab, le traitement mettait une dizaine de minute. Avec un petit programme fortran, sur la même machine, c'était environ 30 secondes... La mémoire ne fait pas tout, le plus souvent c'est le codage qui est déterminant. Nos amis informaticiens, ils sont nombreux sur ce forum, ne dirons pas le contraire
Envoyé par TNK
Tient un exemple de grande photo, avec un traitement qui ne devait pas être trop important.
Envoyé par TNK
Mais bon, comme je l'ai dit, on est hors sujetDernière modification par rui ; 28/05/2006 à 11h27.
-
28/05/2006, 12h03 #11
- Inscription
- April 2006
- Localisation
- Nievre
- Âge
- 54
- Messages
- 850
- Boîtier
- 30D
- Objectif(s)
- 17-55/2.8IS | 70-200/4IS | 85/1.8 | 30/1.4 | 105/2.8 Macro
Pour croiser avec un autre fil qui parle des formats d'image, je vais prendre l'exemple du JPEG2000 et du JPEG. En prenant l'hypothèse que le JPEG2000 soit utilisable aussi facilement que le JPEG (pb de brevet), je me demande si les constructeurs auraient introduit ce nouveau format dans nos chers boîtiers ?.
Pas si sur même si le jpeg2000 a de nombreux avantages. (Je vous laisse faire vos recherches sur Google. Pourquoi donc, parce qu'une transformé de fourier en cosinus (JPEG) demande moins de calcul et moins de mémoire qu'une transformé en ondellette (JPEG2000). Mais ce qu'il faut savoir c'est que pour la mémoire, le problème est très facilement contournable par des méthodes de résolution de matrice par bloc. Donc le seule problème réel reste la puissance du processeur embarqué, et donc indirectement de la puissance électrique consommée, du prix, de son réchauffement...
Voila donc un exemple, parmi tant d'autre, qui montre que la mémoire ne fait pas tout, même si elle est très importante. Il existe bien entendu des cas particulier ou cela n'est plus vrai...
Tout comme pour la photo, la quantité de pixel ne fait pas tout, sauf dans des cas encore particulier. En somme, on ne peut pas vraiment généraliser. Débat stérile quoi. Allez j'arrête. Bon dimanche.
-
27/05/2006, 14h56 #12
- Inscription
- May 2005
- Localisation
- Saint Maur des Fossés (94)
- Âge
- 65
- Messages
- 1 066
Envoyé par PHY
On la compte en To depuis longtemps sur les serveurs et calculateurs.
-
26/05/2006, 20h30 #13
- Inscription
- February 2006
- Localisation
- Saint Germain en Laye (78), France
- Âge
- 51
- Messages
- 294
- Boîtier
- EOS 350D (pour ma femme), 40D
- Objectif(s)
- EF 70-200 F2.8 L IS - EF-S 60 F2.8 - EF-S 17-55 F2.8 IS
Envoyé par TNK
Pour moi il n'y a pas lieu de comparer la RAM et les capteurs CCD ou CMOS
Si on reste a taille constante capteur APS-C ou 24x36, on pourra difficilement monter dans les millions de pixels, les problemes physiques (diffraction, ...) empecheront d'aller plus loin et puis a quoi bon au dela de 300 dpi l'oeil humain ne voit pas la difference.
-
27/05/2006, 10h15 #14
- Inscription
- February 2006
- Localisation
- ANNECY
- Âge
- 80
- Messages
- 5 595
- Boîtier
- EOS D
- Objectif(s)
- trop et pas assez ! ! !
Juste mon grain de riz (asiatique)
Dans l'avenir, il sera peut-être possible de monter dans les millions de pixels en gravant des capteurs double, triple, quadruple couches où chaque couche s'occuperait chacun d'une sensibilité.
-
27/05/2006, 15h15 #15
- Inscription
- May 2005
- Localisation
- Saint Maur des Fossés (94)
- Âge
- 65
- Messages
- 1 066
Envoyé par buggz
Tu parles de Millions de pixels... heuhh tu n'es pas au courant qu'on y est déjà?
J'ai donné un exemple de capteurs où plusieurs sites pouraient être affectés de sensibilités différentes... c'était juste un exemple.
Les avancées technologiques ne se font pas toujours de manière continue:
" ce n'est pas en améliorant la bougie qu'on invente l'ampoule"
-
27/05/2006, 15h48 #16
- Inscription
- February 2006
- Localisation
- ANNECY
- Âge
- 80
- Messages
- 5 595
- Boîtier
- EOS D
- Objectif(s)
- trop et pas assez ! ! !
Envoyé par TNK
TB la phrase du jour. :thumbup: :thumbup:
Informations de la discussion
Utilisateur(s) sur cette discussion
Il y a actuellement 1 utilisateur(s) naviguant sur cette discussion. (0 utilisateur(s) et 1 invité(s))
Discussions similaires
-
Infos sur le successeur du 5D
Par HyperCanon dans le forum Discussions généralesRéponses: 438Dernier message: 19/05/2008, 08h53 -
un successeur a mon EOS 5 (Argentique)
Par Lotus dans le forum Discussions techniquesRéponses: 14Dernier message: 07/06/2007, 11h27 -
Attendre le successeur de l'EOS 5D
Par Dersou dans le forum Discussions généralesRéponses: 46Dernier message: 29/10/2006, 19h51