COMPTOIR
register

Test • Nvidia GeForce RTX 4080

• Usage créatif / productif

Un GPU, cela ne sert pas uniquement au jeu. Que peut-on attendre d'ADA Lovelace et en particulier de la RTX 4080, dans ce domaine en comparaison de sa grande sœur, ses devancières et concurrentes ? Pour donner une petite idée de ses capacités à ce niveau, nous lui avons préparé un petit échantillon de tests couvrant une partie des usages possibles avec un GPU.

Du fait de l'ajout de cette partie après la publication initiale du dossier RTX 4090, il y a quelques jours seulement, nous n'avons pas repris les mesures des GeForce avec les derniers pilotes presse, qui ne changent rien à ce niveau (vérification effectuée sur les 4090 et 3090). Les Radeon et ARC avaient quant à elles été testées avec leurs derniers pilotes en date.

 

• Blender

Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle capable d'utiliser les GPU au travers d'Optix (GeForce RTX), HIP (Radeon) et oneAPI (Intel ARC). Nous utilisons dans un premier temps le benchmark qui va rendre 3 scènes différentes à l'aide de Cycle sur la version 3.3.0. Ensuite, nous utilisons la version 3.3.1 pour effectuer le rendu d'une scène complexe en RT avec application d'un flou cinétique.

 

 

Quel que soit le test retenu, les GeForce écrasent la concurrence dans ce qui est indubitablement un point fort des verts. La RTX 4080, si elle ne parvient pas au niveau de sa grande sœur, se montre par contre significativement plus rapide que le flagship d'Ampere.

 

• Otoy OctaneRender

Second logiciel de notre échantillon de test, OctaneRender d'Otoy, un moteur de rendu 3D dédié aux GPU. Nous l'utilisons au travers du benchmark officiel, sur lequel seules les GeForce sont supportées. Il se compose de 4 scènes différentes à rendre, nous reportons ainsi le résultat de chacune dans le graphique suivant.

 

 

La prestation de la RTX 4090 tourne à la démonstration par rapport à la génération Ampere, dont le représentant le plus rapide (RTX 3090 Ti), est systématiquement devancé avec des écarts variant entre 76% et 139 % ! La RTX 4080 est moins impressionnante pour ces tâches faisant appel à la puissance de calcul brute, mais devance tout de même nettement la génération passée.

 

• V-Ray

Autre moteur de rendu compatible avec les GPU (mais pas uniquement), V-Ray est disponible pour de nombreux logiciels (3DS, etc.). Pour des raisons de licence, nous l'utilisons ici aussi au travers du benchmark officiel. Ce dernier peut-être effectué via un rendu CPU, mais aussi via CUDA ou RTX pour les GPU compatibles. Nous réalisons donc le test avec ces deux options.

 

 

La conclusion ne change pas, avec une RTX 4090 survolant les débats et une 4080 à bonne distance, mais nettement plus rapide que la RTX 3090 Ti.

 

• DaVinci Resolve

Finissons ces tests en utilisant DaVinci Resolve, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un fichier .MOV. Nous utilisons pour les tests suivants un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque) que nous allons exporter en 8K au format .MP4 en encodant via H.265, puis AV1 (pour les cartes disposant d'un encodeur dédié), afin de solliciter les encodeurs de nos GPU.

 

 

Notez que nous mesurons ici le temps d'export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Faute de temps, nous n'avons pas pu procéder à cette étape longue et fastidieuse, mais il nous parait important de le rappeler. Petit avantage de la RTX 4080 sur la RTX 3090 Ti lors de l'exécution de notre projet Vimeo, la RTX 4090 restant hors de portée.

 

En encodage H.265, le double encodeur est également présent sur la RTX 4080, qui parvient au même résultat que sa grande sœur. C'est bien évidemment le cas également en AV1 et ce pour les mêmes raisons.

 

• Consommation & efficacité énergétique

Quid des puissances électriques absorbées lors de l'exécution de ces logiciels ? Le point intéressant ici, c'est la consommation plutôt contenue de la RTX 4080 lors de l'exécution de ces tâches, cela augure d'une efficacité énergétique remarquable. Notez également que pour DaVinci Resolve, nous mesurons la consommation lors de l'exécution de notre projet H.264, qui va solliciter également les unités de calcul, mais aussi lors de l'encodage pur (AV1).

 

 

Confirmation, pour ce qui concerne l'efficacité énergétique lors de l'exécution de ces tâches, il y a ADA... et les autres !

 

 

Voilà pour les prestations en "production", passons au verdict page suivante.



Un poil avant ?

Ventes de jeux vidéo : toujours du Call of, mais...

Un peu plus tard ...

Adaptateur 12VHPWR : deux fabricants seulement les fournissent, pour deux design différents

Les 100 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur sans nom en Île-de-France, le Samedi 19 Novembre 2022 à 22h26  
par Scrabble le Samedi 19 Novembre 2022 à 12h43
Tu confond le mot "normalement" avec le mot "habituellement"
Le fait que le rapport perfs/prix des GPU n'évolue presque plus, c'est quelque chose de nouveau, effectivement, mais ça n'en fait pas quelque chose d'anormal
kaz à raison, je ne sais pas ce que tu cherches encore mis à part passer pour un "je ne sais quoi".

par Scrabble, le Samedi 19 Novembre 2022 à 12h43  
par Kahz le Vendredi 18 Novembre 2022 à 21h54
En conclusion, c'est une bonne carte, mais pas à ce prix là... comme dirais Gamers Nexus, il y a "stagnation" des perfs, puisque augmentation des perfs = augmentation du prix.
Si tu payes plus, tu as mieux, il est maintenant juste possible de payer encore plus pour avoir encore mieux. Normalement, une nouvelle gamme c'est que pour le même prix, tu as mieux que la gamme précédente.
Tu confond le mot "normalement" avec le mot "habituellement"
Le fait que le rapport perfs/prix des GPU n'évolue presque plus, c'est quelque chose de nouveau, effectivement, mais ça n'en fait pas quelque chose d'anormal
par Kahz, le Vendredi 18 Novembre 2022 à 21h54  
En conclusion, c'est une bonne carte, mais pas à ce prix là... comme dirais Gamers Nexus, il y a "stagnation" des perfs, puisque augmentation des perfs = augmentation du prix.
Si tu payes plus, tu as mieux, il est maintenant juste possible de payer encore plus pour avoir encore mieux. Normalement, une nouvelle gamme c'est que pour le même prix, tu as mieux que la gamme précédente. Mais effectivement, ils ont l'intention de faire cohabiter les 2 gammes... Business is Business

J'espère vraiment qu'AMD va réussir à faire à Nvidia ce qu'ils ont fait à Intel... Le marché du CPU est bien plus intéressant maintenant qu'il y a de la concurrence !
par Alffir, le Jeudi 17 Novembre 2022 à 21h18  
par Eric B. le Jeudi 17 Novembre 2022 à 11h15
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.
Je sais très bien que c'est difficile d'avoir un réglage qui convient à toutes les cartes, c'est pour ça que je dis que ça aurait plus sa place pour un dossier spécial que pour un test qui sort le jour du NDA.

Je ne parle pas de ma 2070S, mais une RTX2080Ti ne passerait pas moins bien qu'une RX6800, notamment en RT.

Faudrait presque se fixer 60 ou 120 FPS pour toutes les cartes, et regarder quelle résolution maximum permet chaque carte.
par anteraks21, le Jeudi 17 Novembre 2022 à 18h47  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur le Mercredi 16 Novembre 2022 à 20h01
Oui il faut attendre 10 jours quel horreur n'est-ce pas bouhhh bouhhh et quand tu auras les précommandes AMD pour 3 semaines d'attente tu diras hip hip hourraaa je vais l'acheter

Trop lol sérieux...
Pour AMD ça sera directement sur leur site comme pour la rtx 4080 qui a été disponible il y a 3 jours. Je passe toujours sur des cartes FE car la garantie est de 3 ans.
par Eric B., le Jeudi 17 Novembre 2022 à 13h01  
par lulu-nico ?? le Jeudi 17 Novembre 2022 à 11h41
En parlant de vram tu as eu des limitations dur les cartes de ce tests ?
Non, je n'ai rien remarqué de tel.
par lulu-nico, le Jeudi 17 Novembre 2022 à 11h41  
par Eric B. le Jeudi 17 Novembre 2022 à 11h15
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.
Avec ta 2070S, tu vas tout naturellement baisser le niveau de détails pour privilégier le confort d'usage avec les production contemporaine gourmandes, je me trompe ? C'est légitime et logique. Du coup appliquer une charge totalement inadaptée va conduire parfois à un effondrement des perfs (saturation mémoire, etc.) faisant croire à la nécessité de changer, alors que ce n'est pas forcément utile (passer de Ultra à élevé par exemple ne dénature pas sensiblement le jeu dans de nombreux cas).
Et si on réduit cette fois la charge, ce sont les cartes contemporaines qui vont se tourner les pouces voir être limitées par le CPU, retirant la pertinence du test... Bien sûr cela ne touche pas tous les jeux, mais déjà que beaucoup de lecteurs ne lisent pas le texte hors graphiques, ça me parait quelque part un chouia malhonnête de procéder ainsi, poussant à la consommation là où ce n'est pas forcément utile.
En conclusion, le transgénérationnel n'est pas si aisé lorsque l'on veut garder la pertinence du test, ce que nous cherchons à faire systématiquement.
En parlant de vram tu as eu des limitations dur les cartes de ce tests ?
Encore bravo pour le test c'est le plus complet sue j'ai vu sur le web
Vous êtes l'un des seuls site à avoir refait avec le 13900k
J'ai vu des tests ou la 4090 n'est que 25 % devant la 4080 si on croit ça son prix devient correct ça change tout
par Eric B., le Jeudi 17 Novembre 2022 à 11h15  
par Alffir le Jeudi 17 Novembre 2022 à 08h46
Seul "critique", plutôt que faire 3080Ti/3090/3090Ti, ça serait pas préférable d'ajouter une carte de la génération précédente ?
.
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.

Avec ta 2070S, tu vas tout naturellement baisser le niveau de détails pour privilégier le confort d'usage avec les productions contemporaines gourmandes, je me trompe ? C'est légitime et logique. Du coup appliquer une charge totalement inadaptée va conduire parfois à un effondrement des perfs (saturation mémoire, etc.) faisant croire à la nécessité de changer, alors que ce n'est pas forcément utile (passer de ultra à élevé par exemple, ne dénature pas sensiblement le jeu dans de nombreux cas).

Et si on réduit cette fois la charge, ce sont les cartes contemporaines qui vont se tourner les pouces voir être limitées par le CPU, retirant la pertinence du test... Bien sûr cela ne touche pas tous les jeux, mais déjà que beaucoup de lecteurs ne lisent pas le texte hors graphiques, ça me parait quelque part un chouia malhonnête de procéder ainsi, poussant à la consommation là où ce n'est pas forcément utile.

C'est comme tester un THG en FHD ou une entrée de gamme en UHD, cela n'a pas de sens puisqu'elles ne sont pas prévues pour ça, du moins à leur lancement pour le THG. En conclusion, le transgénérationnel n'est pas si aisé lorsque l'on veut conserver la pertinence du test, ce que nous nous efforçons de faire systématiquement.
par Manu, le Jeudi 17 Novembre 2022 à 09h37  
par Un ragoteur qui pipotronne en Communauté Valencienne le Jeudi 17 Novembre 2022 à 08h12
Je ne serais pas étonné de voir des chutes de prix massives très rapidement sur ces cartes.
Mais vu comme cela part en ce moment, ont ils vraiment intérêt à baisser les prix ? Peut être suite à la réplique des rouges, qui sait...
En attendant, ils vont se faire pas mal de biftons
par Alffir, le Jeudi 17 Novembre 2022 à 08h46  
Encore merci pour vos tests toujours complets et facilement lisibles.

Seul "critique", plutôt que faire 3080Ti/3090/3090Ti, ça serait pas préférable d'ajouter une carte de la génération précédente ?

Bonne carte, mauvais prix, j'en achèterai une pour remplacer ma 2070S dans 4 ans quand la RTX6080 sortira.
par Un ragoteur qui pipotronne en Communauté Valencienne, le Jeudi 17 Novembre 2022 à 08h12  
Sauf que c'est sensé être une nouvelle génération, avec ces tarifs on se retrouve plutôt avec une extension de la gamme actuel vers le haut.

Je ne serais pas étonné de voir des chutes de prix massives très rapidement sur ces cartes.
par anteraks21 le Mercredi 16 Novembre 2022 à 18h47
La conclusion sur les tarifs de la RTX4000 n'est pas valable pour les pays hors CE. La tarification US de la RTX 4080 et 4090 est respectivement de 1200$ pour la 1er et 1600$ pour la seconde. Si on compare avec la RTX 3090 Ti qui est à 1100$ on se retrouve avec des RTX4000 bien mieux placées en prix car le % d'augmentation est inférieure à l'augmentation des performances.
Pour synthétiser le truc en prennent le RT QHD nous avons par rapport à la rtx 3090 Ti :

RTX 4080 + 25% en perf et +9% en tarif
RTX 4090 +61% en perf et +45% en tarif.

On pourrait faire la même analogie avec les prix EU mais rien de comparable car aux US le prix psychologique reste encore au dessus eu égard au niveau de vie (+30% pour les US)
Message de Un ragoteur sans nom en Île-de-France supprimé par un modérateur : HS