Citation Envoyé par JJE Voir le message
Là encore, nécessaire ? Raisonnable ? Chacun fait encore ce qui lui semble bon. Si Jean-Mi est heureux avec son matériel, et que ce matériel répond à sa demande, je me réjouis pour lui. En ce qui me concerne, je constate que ma carte graphique n'est plus du tout à niveau, puisqu'une réduction de bruit pour un seul RAW prend plusieurs minutes, alors que mon PC est une machine de guerre.

Ceci dit, l'AI n'est pas QUE du marketing. Il suffit de regarder les logiciels qui mettent en œuvre l'AI ces derniers temps pour se rendre compte que les temps de traitement sont nettement plus longs que n'importe quel traitement photo d'il y a encore quelques mois. Et donc, quitte à devoir changer ma carte graphique, puisque c'est vraiment nécessaire dans mon cas, autant en choisir une qui soit adaptée à une technologie (l'IA) qui sera de plus en plus présente dans les mois et années à venir. Ce qui semble être un luxe pour le moment, va vraisemblablement devenir la norme d'ici quelques mois.


JJE

Relis également mon post, je n'ai pas dit que l'AI n'était QUE du marketing. J'ai dit qu'il y a beaucoup de marketing autour de l'AI. J'ai même cité le cas de DxO en fin de post qui et un algorithme pur AI.

Passons est soyons constructif : Autre remarque que chatGPT stipule d'ailleurs et qu'il me semble importante. Il faut que la technologie mise en oeuvre sur la carte graphique sot utilisée par le soft. Est c'est bien là le principale problème, car souvent ces derniers sont "générique", et une carte bien que disposant d'une technologie particulière et particulièrement efficace selon le constructeur, peu se voir inutilisé par tes softs. J'en veux pour preuve, mon Mac Pro 2013 avec ses deux cartes graphiques, et bien beaucoup de softs n'en utilisent qu'une seule (pour les calculs, j'entends) car les développeurs n'ont pas implantés la possibilité du multiGPU dans leur programme. Paradoxalement, plus il vieillit et plus il est performant, car en avance sur son temps, c'est aujourd'hui qu'émerge le plus de softs utilisant le GPGPU qui utilisent ses spécificités, pas tous de façon optimale serte (une carte pour les calculs et une pour l'affichage, c'est déjà pas mal), mais y a du mieux, 10 ans après tout de même. Ce que l'on peut en conclure et qui peut être utile dans ton cas : est qu'il n'est en rien nécessaire encore une fois de courir derrière la technologie et choisir la carte la plus puissante car généralement les softs ne l'utiliseront pas de façon optimale - si il l'utilise un jour d'ailleurs - avant pas mal de temps. Ça c'est du retour d'expérience, ce que tu attends, il me semble.