Affichage des résultats 1 à 45 sur 77
Discussion: DxO : exemple de performances avec cpu i5/i7
Mode arborescent
-
16/05/2010, 00h39 #19Membre
- Inscription
- février 2010
- Localisation
- Belgique
- Messages
- 2 243
- Boîtier
- Numérique
- Objectif(s)
- Lumineux
Hello,
Sorry j'avais zappé le sujet. Donc 11 minutes et 50 secondes c'est correct pour ce cpu. Attention que ce test n'est absolument pas révélateur des performances générales de la machines, et encore moins des perf du cpu uniquement... c'est le couple cpu - mémoire qui est testée ici et pas dans son entier, mais dans sa capacité à traiter un calcul complexe (un seul... il en faudrait bien plus pour mettre le cpu et la mémoire à 100%). Donc que vous ayez 4 ou 8 ou 16Go de mémoire, ça n'affectera pas vraiment le résultat, c'est surtout la vitesse de la mémoire qui est testée, et une mémoire c'est un peu comme un cpu, plus le clock speed est élevé, plus ça va vite et plus la latence est basse, plus ça cause vite. A faire un choix, c'est un bon équilibre qu'il faut choisir, par exemple dommage d'avoir un cpu performant avec de la mémoire à 1066MHz et des latences de merde.
Si vous voulez tester les performances de votre machine complète, ce sont plutôt des benchmark du type PC Mark, 3D Mark, Sysmark etc... qu'il faut tourner pour comparer vos scores avec ceux de plateformes ''équivalentes''.
Non ici l'objectif était de voir s'il n'y avait pas un soucis particulier dans la relation transactionnelle entre le CPU et la mémoire, et ça ne semble pas être le cas (même si, avec un peu de tweak, on peut taper 2 minutes de moins à l'aise sans pour autant avoir recours à un oc extrême hors de portée d'un air cooling performant, dépendant du type de mémoire bien entendu).
La carte mère très honnêtement n'a que TRES PEU d'influence (à plateforme équivalente bien entendu) sur la performance globale de la machine (si l'on regarde spécifiquement du côté cpu et mémoire). On commence à voir des différences de performances (faibles mais réelles) dès le moment que l'on a recours à des overclocking importants, ou alors que l'on se pense du côté I/O. Mais sinon.... c'est le cpu, la mémoire (et le gpu) qui font le gros du travail.
i7 860 (ou même i5 750, j'en ai eu un plus que vaillant!) couplé à 4 ou 8Go de mémoire sous un OS 64 bit, c'est démentiel ce qu'on peut en tirer, en standard ou en OC peu importe pour le prix c'est excellent. Et vu le tarif de la mémoire performantes sur pc, pourquoi se priver (c'est autre chose que les modules vendus à prix d'or sur Apple en version orginale.... pour ce tarif j'ai mes modules qui sont autrement plus peformants!!)
On peut aujourd'hui se poser la question Clarkdale (donc i5 6xx et i3) car ces processeurs embarquent un accélérateur graphique sur le die cpu directement, donc pas besoin d'ajouter une carte graphique si l'on se content de faire de la 2D mono (ou bi) moniteur(s) à résolution raisonnable. En effet tant que l'on ne touche pas à la 3D, les perf d'un i5 6xx et d'un i5 7xx ou i7 8xx ne valent pas forcément l'écart de prix (à config terminée, il ne faut pas comparer seulement le prix du CPU).
Ne pas négliger le potentiel du i7 860, car moyennant quelques ajustements dans le Bios, on peut tweaker ce cpu pour lui faire atteindre une perf supérieure sans pour autant devoir recourir à des procédés de refroidissements autres que par air, et sans pour autant dépenser 2 à 3x plus d'énergie. Tout dépend du ventirad employé. Avec des engins comme les Noctua NH-D14 ou Prolimatech Megahalems, qui ont l'intelligence d'être non seulement hyper performants mais en plus très silencieux, le petit i7 860 peut tourner à 3,6GHz sans problème, et la mémoire (selon le modèle) monter sur 1,6GHz (latence dépendant du modèle de mémoire) pour gagner une part intéressante de performances.
En usage normal, certes les différences à plateforme équivalente ne vont pas sauter aux yeux. J'ai investi dans ma machine le prix de deux power mac pro full options, mais je ne prétends pas avoir des performances 10x supérieures à un système reprenant plus ou moins la même architecture de base en usage ''humain''. Je fais du benchmarking avec ma machine donc forcément là on peut chiffrer les différences. Mais dès que je passe en mode usager normal, et que je traite de la photo ou de la vidéo, je repasse mon système dans un mode raisonnable, j'ai comparé différents settings d'une version OC à mort à la limite des températures acceptables à une version de base sortie de boite pour les composants employés, et à l'échelle d'une perception humaine, les différences n'étaient pas telles que j'aurais pu justifier de tourner la machine tout le temps au maximum de l'OC possible!!
Je vois plutôt des différences utiles entre d'anciens systèmes de plus d'un an, et un système actuel, puisque chez Intel tous les processeurs aujourd'hui en Core i quelquechose ont profité des innovations introduites avec le Nehalem EP dans le monde serveurs il y a plus d'un an.L'introduction de ce processeur a été une vrai révolution en matière d'architecture (phase Tock du roadmap Intel, donc développement d'une nouvelle micro architecture sur la base d'une nouvelle technologie introduite en phase Tick, à savoir la base 45nm). Et en matière de performances puisque tout simplement dans la grande majorité des utilisations, le gain de performances a été x2 au minimum (virtualisation, ldap, sap, etc...), et le prix n'a pourtant pas varié....
Donc aujourd'hui, à prix équivalent, vous pouvez sortir bien plus de performances, en consommant moins d'énergie, et plus intelligemment. Pourquoi se priver
Surtout avec des OS qui tournent bien. Et Microsoft en fait partie (je n'aurais pas dit ça avant l'été dernier pour les os système).
Après.... dépendant de quel utilisateur l'on est, rien n'est jamais indispensable. Et il me semble bien plus important (vital) de se pencher sur les moyens de garantir la disponibilité des données dans le temps, que sur la façon de gagner 2 minutes sur un batch de 50 photos à traiter. Donc on peut se satisfaire d'une machine lente, mais en aucun cas s'autoriser le luxe d'être laxiste en matière de sauvegarde, et de cycle de vie de l'information. Un support numérique n'est pas indestructible, quel qu'il soit. Il a une durée de vie dépendant de sa technologie. Et une fragilité par rapport à son environnement qui dépend aussi de sa technologie.
Moralité: organisez vos données, faites des backups, migrez vos données toutes les x années sur des supports neufs, vérifiez la consistance de vos backups régulièrement, et faites des photos pendant que les autres sont traitées à leur rythme sur votre pc ou votre mac. A moins d'être un pro avec des échéances de temps et de rentabilité, on est pas à la minutes voire à l'heure près.
@+
Informations de la discussion
Utilisateur(s) sur cette discussion
Il y a actuellement 1 utilisateur(s) naviguant sur cette discussion. (0 utilisateur(s) et 1 invité(s))
Discussions similaires
-
performances du 500d face à un 40d
Par edauviro dans le forum Choix d'un BoîtierRéponses: 23Dernier message: 12/11/2009, 23h53 -
quelles performances du Tokina 10-17
Par hokua dans le forum Discussions ObjectifsRéponses: 5Dernier message: 20/07/2008, 23h03 -
Performances SIGMA 70-200 2.8 APO par rapport à un Tokina 50-135 2.8
Par dafunky dans le forum Discussions ObjectifsRéponses: 4Dernier message: 09/07/2008, 21h10 -
Un exemple de photo avec/sans flash externe svp
Par LeCelte dans le forum Discussions FlashRéponses: 11Dernier message: 14/11/2005, 11h02





