Envoyé par
le.tof
Pour un usage amateur, une débauche de puissance est-elle vraiment nécéssaire et raisonnable ? Regardez @jean-mi@ avec un simple Mac mini d'il y a 12 ans sans carte graphique dédié, il arrive à développer ses photos ! Faire attention aussi à ne pas tout confondre. On parle d'AI, mais ne pas oublier que pour beaucoup c'est du marketing. J'en veux pour exemple Topaz AI Gigapixel, l'AI est serte utilisé, mais seulement dans des cas extrêmes ou l'utilisateur demande à l'application d'inventer des détails, là ou il y en a pas (mode Low Résolution ou Very Compressed) : est-ce encore de la photographie ? Dans un usage photographique de cette application en mode standard donc, l'AI n'intervient pas dans l'upscaling, c'est un algorithme de déconvolution qui est utilisé, puis un de mise à l'échelle. Et oui, ces algorithmes ont besoin d'une puissance de calcul importante car cette mise à l'échelle en demande beaucoup ; et oui, une carte graphique peut-être un plus car ces calculs à base de matrices sont hautement parallélisables. La carte graphique est donc un apport de puissance, cependant son usage reste limitée (pour les calculs) car nombre d'entre eux ne sont pas parallélisable. Il faut trouver un juste équilibre donc en terme de configuration. Mais investir dans un carte graphique très haut de gamme pour une station de travail purement photographique, n'en vaut pas la peine, vous serez dessus car les gains seront marginaux. En fait, les producteurs de softs entretiennent volontairement l'ambiguïté entre AI et GPGPU aussi appelé GPU Computing, deux chose différentes, même si les algorithmes de la première peuvent être réalisés par la seconde. Le cas de DxO en est un exemple : les ingénieurs ont utilisé l'apprentissage machine et l'on entrainé à reconnaître les informations parasites (le bruit en l'occurrence) contenu dans la matrice de bayer pendant le dématriçage et ont adapté leur algorithme au GPGPU.