COMPTOIR
register

AD102 serait un monstre... sur Control !

NVIDIA prévoirait de lancer plusieurs GPU Lovelace, dont le fer de lance serait l'AD102. C'est ce GPU qui animerait la RTX 4090, ainsi que la RTX 4090 Ti (ou une TITAN RTX ?). Pour autant, la version complète de l'AD102 arborerait fièrement 18432 cuda cores FP32, là où l'AD102 de la RTX 4090 en aurait "que" 16384. Il est à noter que cet écart laisserait à NVIDIA le loisir de réellement démarquer la RTX 4090 de la version Ti, ce qui n'était pas le cas de la RTX 3090 Ti vis-à-vis de la RTX 3090, bien trop proches, et obligeant les verts à lâcher le TDP pour augmenter les fréquences et créer volontairement une différence de performances, pas assez nette pour le coup.

 

Revenons-en aux faits. AGF, chasseur de fake news tel qu'il se décrit sur Twitter, a affirmé que AD102 complet enverrait plus de 160 ips en Ultra, UHD, ray tracing et DLSS sur le jeu Control, sans donner plus de détails. Ainsi, on ne sait pas si c'est du DLSS ultra performance ou qualité, le ratio de performances n’étant pas du tout le même entre les deux réglages. De plus, si c'est l'AD102 complet, il se murmurait que le TDP serait d'au moins 600 W avec des rumeurs montant même à 900 W. La RTX 4090 est pressentie pour avoir 450 W. À titre de comparaison, avec des réglages supposés identiques, la RTX 3090 envoie 72 ips, il y aurait donc une grande place pour calibrer ses GPU.

 

Avec ses nouveaux tensor cores et RT cores, on espère que le caméléon va réellement donner un gros coup de fouet à ses performances sur les jeux à base de RT, sans forcément aller chercher du DLSS. Sauf si le DLSS 3 arrive en même temps, et restitue une image parfaite. Il faut plus de leaks, et mieux documentés, car ça fait "croyez-moi sur parole", et ça, nous ne le pouvons pas ! Après une petite fuite du même calibre sur Time Spy Extreme, les choses semblent quand même en mouvement en coulisses.

 

control

Un poil avant ?

Le fondeur israélien convoité par Intel est accusé de vol de propriété intellectuelle

Un peu plus tard ...

AIDA64 passe à Zen 4 et Lovelace

Les 32 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Samedi 23 Juillet 2022 à 11h56  
Apparemment, je me suis trompé sur les GPU AMD. Ils ne seraient pas encore multichips, dans le sens où le GPU le plus gros serait constitué de chips plus petits. On aurait toujours un seul GPU principal avec des chips de cache autour. C'est uniquement le cache qui serait séparé du GPU.
La schéma AMD sur le multi-chip GPU serait en fait utilisé pour RDNA 4.
Du coup on a la taille du GPU le plus gros d'AMD, Navi 31, celui de la future 7900XT.
Il fait 350mm² en 5nm soit du même ordre que celui de la 6700 (Navi 22). La solution est due à la disparition du Infinity cache et de ses contrôleurs sur les chiplets mémoire (en 6nm et à raison de 6 pour Navi31).
Par ailleurs un certain nombre de fonctionnalités de compatibilité (avec les anciens GPU) ont été retirées du GPU pour se concentrer sur le nombre d'unités de calcul. Le chip aurait, d'après les derniers leaks, un bus 384 bits et recevrait donc 24Go de GDDR6. Il aurait 12288 unités de calcul, à la place de 5120 pour Navi 21. Par ailleurs les unités seraient groupées comme chez Nvidia pour optimiser le place.
Navi 32 serait un GPU 2/3 de Navi 31 en tous points. Navi 33 serait gravé en 6nm et serait tout compris GPU + infinity cache 4096 SP donc en gros 1/3 de Navi 31, mais probablement à fréquence (et conso) élevée qui le rendrait un peu plus puissant que Navi 21.
En théorie Navi 31 devrait être 3x plus puissant que Navi 21. Arpès c'est probablement une question d'où on veut mettre la limite de consommation et 450W de TDP me semble être faible pour viser l'objectif 3x. Or les 450W ou m^meme 400W c'est ce qui apparait sur un tableau consommations pour cette gen dévoilé récemment par AMD.

Il se dit que tout ce qui est gravé 6nm (chiplets mémoire et Navi 33) pourraient être gravés chez TSMC ou Samsung, selon choix et dispo.
par Jemporte, le Jeudi 21 Juillet 2022 à 21h54  
par Scrabble le Jeudi 21 Juillet 2022 à 13h08
Ce qui est vraiment con avec la RX 6800, c'est que le modèle de référence ne se trouve pas facilement, et un éventuel modèle MSI Ventus qui aurait pu le remplacer n'a jamais été fabriqué. Reste donc la MSI Radeon RX6800 Gaming X Trio 16G qui est trop encombrante (324 mm de long), ou alors le modèle Gigabyte en lequel je n'ait pas confiance. Donc bon voilà, j'ai finit par passer chez Nvidia
Il y a les monstrueuses XFX à 640 euros sur AMZ.
Les futures 7600XT (equivalentes 6900XT) devraient les larguer niveau calcul dans 2/3 mois et annoncées à 400$ MSRP mais avec 8Go de VRAM seulement. Mêmes les 4070 n'auront que 10Go à 500$.
Bref, les 2060, 3060, 6700 avec 12Go à pas cher (hors spéculation), on va pas les retrouver sur les nouvelles gammes.
Bref, les standards de VRAM d'il y a plus de 5 ans sont toujours rigoureusement d'actualité pour les GPU de 2022/2024.

Un GPU AMD 6800 non XT non OC est équivalent à un 3060 non OC sous OpenCL sur les calculs entiers flottants 32 bits non ISO, qui sont utilisés dans les moteurs de rendu 3D Pro.
Mais si on utilise Optix qui va se servir des RT cores et des tenseurs, la 3060 est devant.
par Un ragoteur blond en Communauté Valencienne, le Jeudi 21 Juillet 2022 à 18h25  
Pour la même raison que Gala parle des têtes couronnées pour vendre du papier j'imagine.
par Un ragoteur bio en Nouvelle-Aquitaine le Mercredi 20 Juillet 2022 à 19h40
pourquoi ils communiquent TOUJOURS sur les XX90
les version XX60 montreraient de moins gros chiffres mais je pense qu'elles se vendraient bien plus

donc , on bave sur des données qu'on ne pourra jamais se payer , sauf dans 10 ans quand on sera au 9990
par Scrabble, le Jeudi 21 Juillet 2022 à 13h08  
par Unragoteursansespace en Bourgogne-Franche-Comté le Jeudi 21 Juillet 2022 à 08h16
Manque de pot, ils n'ont rien comblé du tout en proposant un produit moins bon que la 6800 ( avec la 6750 ) et ont retiré les autres cartes de leur shop. Donc non, ils n'ont pas fait ce que tu supposes.
Ce qui est vraiment con avec la RX 6800, c'est que le modèle de référence ne se trouve pas facilement, et un éventuel modèle MSI Ventus qui aurait pu le remplacer n'a jamais été fabriqué. Reste donc la MSI Radeon RX6800 Gaming X Trio 16G qui est trop encombrante (324 mm de long), ou alors le modèle Gigabyte en lequel je n'ait pas confiance. Donc bon voilà, j'ai finit par passer chez Nvidia
par Unragoteursansespace en Bourgogne-Franche-Comté, le Jeudi 21 Juillet 2022 à 08h16  
par cabou83 le Jeudi 21 Juillet 2022 à 00h03
Pas tellement AMD a vu que la disponibilité était difficile sur la 6800 et que l'écart était grand avec la 6700xt donc ils ont proposé la 6750xt histoire de "comblé" ce manque et contenté ceux qui n'arrive pas a se procurer une 6800.
Mais la n'est pas tellement la question ils ont ni plus ni moins fait ce que Nvidia a fait avec la 3070ti, et AMD s'en prend pleins la gueule sur la conso alors qu'a part ici sur CDH je n'ai pas vu beaucoup de review parler de l'énorme up de consommation entre la 3070 et 3070ti à sa sortie.
Manque de pot, ils n'ont rien comblé du tout en proposant un produit moins bon que la 6800 ( avec la 6750 ) et ont retiré les autres cartes de leur shop. Donc non, ils n'ont pas fait ce que tu supposes.
par Jemporte, le Jeudi 21 Juillet 2022 à 00h31  
par Une ragoteuse à forte poitrine en Provence-Alpes-Côte d'Azur le Mercredi 20 Juillet 2022 à 23h02
Non ça c'est une décision individuelle, et en fonction des finances de chaucun.

Une 4090 FE à 1500 € et une 4090ti FE à 2000€ disponibles, moi je prends la seconde, j'économise depuis 6 mois, et en revendant ma 3090 ça devrait le faire.

Plus que le prix ce sont les dispo qui m'inquiètent, parce que j'ai hâte de mettre ça dans ma tour et de lâcher les dernières concessions que je dois actuellement faire en 4K sur les gros jeux qui intègrent du Ray Tracing, et même pourquoi pas Cyberpunk en Ultra RT 4k sans DLSS à 60 fps, là je dis OUI.
On verra pour la 4060. Ca leak pas dessus mais apparemment elle n'aura pas les 12Go de la 3060. Niveau Vram, la 4070 avec 10Go (au lieu de 12 prévus) est à peu près le seul effort de Nvidia avec la 4080 à 16Go, pour se distancer du minimum syndical. D'ailleurs la 4070 devrait être un poil meilleur que la 3080 10Go aussi. La 4070 serait à 500$, ce qui devient assez cher du coup.

Mais on n'a plus grand chose à faire que d'attendre à cause de leaks divergentes. Pour info en face AMD a aussi deux variantes dont une avec 20% d'unités de calcul en plus et plein de watts dans le haut de gamme.
Ca donne une facteur de perfs de 1.5 entre les deux possibilités, presque comme chez Nvidia.
Ca serait intéressant que l'un d'eux mente (vers plus de perfs).
par cabou83, le Jeudi 21 Juillet 2022 à 00h03  
par Unragoteursansespace en Bourgogne-Franche-Comté le Mercredi 20 Juillet 2022 à 23h54
Raisonnement totalement biaisé, mais difficile d'en attendre mieux de ta part. Les 6x50 sont plus chères et moins bonnes que les cartes équivalentes non refresh : conso en hausse, efficacité en baisse et perf pas au top mais un prix bien en hausse tout en faisant disparaître les autres des étals... Comparer la 6750 à la 6800 montre à quel point AMD se fout de ses clients.
Pas tellement AMD a vu que la disponibilité était difficile sur la 6800 et que l'écart était grand avec la 6700xt donc ils ont proposé la 6750xt histoire de "comblé" ce manque et contenté ceux qui n'arrive pas a se procurer une 6800.
Mais la n'est pas tellement la question ils ont ni plus ni moins fait ce que Nvidia a fait avec la 3070ti, et AMD s'en prend pleins la gueule sur la conso alors qu'a part ici sur CDH je n'ai pas vu beaucoup de review parler de l'énorme up de consommation entre la 3070 et 3070ti à sa sortie.
par Unragoteursansespace en Bourgogne-Franche-Comté, le Mercredi 20 Juillet 2022 à 23h55  
par Un ragoteur bio de Bretagne le Mercredi 20 Juillet 2022 à 19h06
Ah ! JeanVélux !!!

On se demandait, où t'étais passé
Vélux comme un troll
Message de Unragoteursansespace en Bourgogne-Franche-Comté supprimé par un modérateur : Doublon
par Unragoteursansespace en Bourgogne-Franche-Comté, le Mercredi 20 Juillet 2022 à 23h54  
par cabou83 le Mercredi 20 Juillet 2022 à 18h39
Même aujourd'hui à l'époque de GCN on voyait partout l'argument du perf/watt en faveur de Nvidia. Aujourd'hui cette argument a presque complétement disparu de la presse (seul cdh en parle) la RX6800 a juste un perf/watt x1.2 face à la meilleure carte gen rtx3000 (AKA la rtx3070) si on compare même à la RTX3070Ti on atteint les x1.4 voir les x1.5 en faveur de la 6800 pour le perf watt on dirait presque qu'il y a une gen d'écart entre la consommation de la 3070ti et la 6800. Pourtant ça n'empêche pas Nvidia de vendre des 3070ti par palette...
Puis AMD aujourd'hui propose la gamme 6X50 en refresh et la on les recritique sur la surconsommation... Alors que justement ils avait une marge de manoeuvre vu la consommation des RTX3000. Bref on marche sur la tête.

Et comme argument on me sort aussi "oui mais a quoi bon en parler la RX6800 est introuvable", ben c'est en grande partie grâce à sa et ses 16go qu'elle fut la carte la plus demandé des mineur malheureusement. Et je dirais qu'on a le même rapport de force avec la RX6600 vs la RTX3060 x1.2 de perf/watt pour la radeon, mais bon la 3060 à le DLSS qui change tout... Que voulez vous
!
Raisonnement totalement biaisé, mais difficile d'en attendre mieux de ta part. Les 6x50 sont plus chères et moins bonnes que les cartes équivalentes non refresh : conso en hausse, efficacité en baisse et perf pas au top mais un prix bien en hausse tout en faisant disparaître les autres des étals... Comparer la 6750 à la 6800 montre à quel point AMD se fout de ses clients.
par Une ragoteuse à forte poitrine en Provence-Alpes-Côte d'Azur, le Mercredi 20 Juillet 2022 à 23h02  
par Un ragoteur bio en Nouvelle-Aquitaine le Mercredi 20 Juillet 2022 à 19h40
pourquoi ils communiquent TOUJOURS sur les XX90
les version XX60 montreraient de moins gros chiffres mais je pense qu'elles se vendraient bien plus

donc , on bave sur des données qu'on ne pourra jamais se payer , sauf dans 10 ans quand on sera au 9990
Non ça c'est une décision individuelle, et en fonction des finances de chaucun.

Une 4090 FE à 1500 € et une 4090ti FE à 2000€ disponibles, moi je prends la seconde, j'économise depuis 6 mois, et en revendant ma 3090 ça devrait le faire.

Plus que le prix ce sont les dispo qui m'inquiètent, parce que j'ai hâte de mettre ça dans ma tour et de lâcher les dernières concessions que je dois actuellement faire en 4K sur les gros jeux qui intègrent du Ray Tracing, et même pourquoi pas Cyberpunk en Ultra RT 4k sans DLSS à 60 fps, là je dis OUI.
par Une ragoteuse à forte poitrine du Grand Est, le Mercredi 20 Juillet 2022 à 21h49  
il va falloir arrêter avec ces consommations complètement délirantes !