Citation Envoyé par le.tof Voir le message
Pour un usage amateur, une débauche de puissance est-elle vraiment nécéssaire et raisonnable ? Regardez @jean-mi@ avec un simple Mac mini d'il y a 12 ans sans carte graphique dédié, il arrive à développer ses photos ! Faire attention aussi à ne pas tout confondre. On parle d'AI, mais ne pas oublier que pour beaucoup c'est du marketing. J'en veux pour exemple Topaz AI Gigapixel, l'AI est serte utilisé, mais seulement dans des cas extrêmes ou l'utilisateur demande à l'application d'inventer des détails, là ou il y en a pas (mode Low Résolution ou Very Compressed) : est-ce encore de la photographie ? Dans un usage photographique de cette application en mode standard donc, l'AI n'intervient pas dans l'upscaling, c'est un algorithme de déconvolution qui est utilisé, puis un de mise à l'échelle. Et oui, ces algorithmes ont besoin d'une puissance de calcul importante car cette mise à l'échelle en demande beaucoup ; et oui, une carte graphique peut-être un plus car ces calculs à base de matrices sont hautement parallélisables. La carte graphique est donc un apport de puissance, cependant son usage reste limitée (pour les calculs) car nombre d'entre eux ne sont pas parallélisable. Il faut trouver un juste équilibre donc en terme de configuration. Mais investir dans un carte graphique très haut de gamme pour une station de travail purement photographique, n'en vaut pas la peine, vous serez dessus car les gains seront marginaux. En fait, les producteurs de softs entretiennent volontairement l'ambiguïté entre AI et GPGPU aussi appelé GPU Computing, deux chose différentes, même si les algorithmes de la première peuvent être réalisés par la seconde. Le cas de DxO en est un exemple : les ingénieurs ont utilisé l'apprentissage machine et l'on entrainé à reconnaître les informations parasites (le bruit en l'occurrence) contenu dans la matrice de bayer pendant le dématriçage et ont adapté leur algorithme au GPGPU.
Là encore, nécessaire ? Raisonnable ? Chacun fait encore ce qui lui semble bon. Si Jean-Mi est heureux avec son matériel, et que ce matériel répond à sa demande, je me réjouis pour lui. En ce qui me concerne, je constate que ma carte graphique n'est plus du tout à niveau, puisqu'une réduction de bruit pour un seul RAW prend plusieurs minutes, alors que mon PC est une machine de guerre.

Ceci dit, l'AI n'est pas QUE du marketing. Il suffit de regarder les logiciels qui mettent en œuvre l'AI ces derniers temps pour se rendre compte que les temps de traitement sont nettement plus longs que n'importe quel traitement photo d'il y a encore quelques mois. Et donc, quitte à devoir changer ma carte graphique, puisque c'est vraiment nécessaire dans mon cas, autant en choisir une qui soit adaptée à une technologie (l'IA) qui sera de plus en plus présente dans les mois et années à venir. Ce qui semble être un luxe pour le moment, va vraisemblablement devenir la norme d'ici quelques mois.


JJE