COMPTOIR
  
register

×

amd rx 5500 custom familly t

Le PCIe 4.0 : un avantage pour les cartes en manque de VRAM ?
amd rx 5500 custom familly t

Dans la série de l’éternel duel AMD/NVIDIA, les rouges ont actuellement un avantage — sur papier tout du moins. En effet, les cartes Navi sont équipées de PCIe 4.0, le remplaçant du PCIe 3.0 doublant ses débits (apportant 32 Go/s de bande passante en x16). Pourtant, il est de notoriété publique que cette bande passante ne sert en jeu qu’au chargement des textures, et donc au lancement des niveaux uniquement... Pas de quoi justifier une telle innovation.

 

Sauf que cela ne se vérifie que si les textures en question tiennent entièrement dans la VRAM de la carte en question. Et avec la version 4 Go de la RX 5500 XT, cela n’est pas forcément le cas. Notez en outre que cette même RX 5500 XT se connecte via un port PCIe 4.0 x16... câblé en interne en x8, ce qui offre la bande passante d’un PCIe 3.0 x16 — superbe évolution !

 

amd rx 5500 custom familly t [cliquer pour agrandir]

En manque de choix pour ce Noël ?

 

Au vu des ces informations, c’est donc sans surprise que la version 4 Go se montre particulièrement sensible à la version de son protocole de connexion, perdant 20 % d’images par seconde (taux moyen et taux minimal) entre le PCIe 4.0 et le 3.0 sur Assassin’s Creed : Odyssey et Battlefiled 5, un impressionnant 40 % sur Far Cry : New Dawn et un plus modeste 10% sur Shadow of the Tomb Raider. Ce qui signifie, en pratique, que votre RX 5500 XT 4 Go sera bien moins performante si vous n’êtes pas équipé d’une carte mère AMD X570 et d’un CPU compatible... Et que, a contrario, la version 4 Go se rapproche bien plus d'une 8 Go dans ces conditions idéales d'utilisation. A se demander si une carte PCIe 4.0 + HBM pourrait se satisfaire de quantités plus faibles de VRAM... Mais ne donnons pas de mauvaises idées aux concepteurs de GPU !

 

Difficile, dans ses conditions, de justifier le choix d'un bus bridé à une largeur x8 par rapport aux x16 disponibles — même si ce choix est monnaie courante sur le segment, citons par exemple les RX 460 et RX 560 — autrement que par un bridage assez artificiel. Voilà une raison de plus d’éviter la version 4 Go, ce qui est probablement le but de toute cette opération ! Un coup fourré des rouges ? (Source : WCCFTech)

 

Un poil avant ?

Ventes de jeux vidéo : papAAA Noël AAArive !

Un peu plus tard ...

Live Twitch • Naruto UNS4 pour les fans du manga

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Bubar37 de Bretagne, le Mardi 24 Décembre 2019 à 06h33  
x570 3700x 16go de ram et .... une 580 4go mais sur un ecran@75hz surement pas suffisant pour 2% des joueurs mais largement pour les 98% des autres ...
par sosombre en Provence-Alpes-Côte d'Azur, le Mardi 24 Décembre 2019 à 01h37  
Pour du 1080p, oui c'est fréquent. Du QHD aussi. Mais 4k60 en ultra, c'est pas encore ça. Je t'ai mis en lien des tests avec des 2070 super (500€ et 5700 xt (400€, ont est sous les 60 fps sur le panel proposé. Après ça dépend du profil de joueur, et les jeux compétitif par exemple ne sont pas les plus gourmand ; les petits jeux et les indépendant devrait aussi ne pas avoir de soucis pour ça.

https://www.gpucheck.com/en-usd/compare/nvidia-geforce-rtx-2070-super-vs-amd-radeon-rx-5700-xt/intel-core-i7-8700k-3-70ghz-vs-intel-core-i7-8700k-3-70ghz/ultra/ultra/-vs-
par Unragoteursansespace en Île-de-France le Lundi 23 Décembre 2019 à 23h48
Une 580 en 1080p c'est clairement de l'ultra ou du high hein.

Y'a de nombreux joueurs qui sont en 144hz avec des gpu de cette gamme sur des jeux multi compétitifs et donc moins exigeants.

Chais pas d'où ça vient cette croyance que les jeux modernes demandent des gpu de fous pour tourner, au contraire ils n'ont jamais été aussi peu demandant depuis que les PS4 et One sont là. Je connais quelqu'un qui jouait à BFV avec une 7950 car sa 1070 a cramé, et clairement ça ne l'a pas incapacité en ligne, il trouvait même le jeu très joli malgré l'âge de la carte.
par Unragoteursansespace en Île-de-France, le Lundi 23 Décembre 2019 à 23h48  
par Un ragoteur Gaulois en Île-de-France le Lundi 23 Décembre 2019 à 23h11
Effectivement. Un Ryzen 2600 + carte mère A320 + une RX 5500 ou une RX 580 4Go + 8Go de RAM + écran 24 pouces FHD + SSD 250Mo Crucial ou Samsung + HD 2To + alim FSP 400W + casque filaire de base = PC pas cher pour 600 euros, strict mini qui permet de jouer à tout en FHD, en qualité moyenne (parfois meilleure que la qualité max quand on enlève un filtrage qui floute trop).
Une 580 en 1080p c'est clairement de l'ultra ou du high hein.

Y'a de nombreux joueurs qui sont en 144hz avec des gpu de cette gamme sur des jeux multi compétitifs et donc moins exigeants.

Chais pas d'où ça vient cette croyance que les jeux modernes demandent des gpu de fous pour tourner, au contraire ils n'ont jamais été aussi peu demandant depuis que les PS4 et One sont là. Je connais quelqu'un qui jouait à BFV avec une 7950 car sa 1070 a cramé, et clairement ça ne l'a pas incapacité en ligne, il trouvait même le jeu très joli malgré l'âge de la carte.
par Un ragoteur Gaulois en Île-de-France, le Lundi 23 Décembre 2019 à 23h11  
par sosombre en Provence-Alpes-Côte d'Azur le Lundi 23 Décembre 2019 à 16h29
Quand tu monte en Résolution, tu monte aussi en utilisation de vram. Il y a une vidéo de Linus Tech qui explique bien ça. Bon en général la quantité de Vram est en adequation avec la puissance du GPU, pas vraiment d'en mettre beaucoup si de toute façon elle va galérer à faire tourner le jeu (c'est le cas de la 5500 xt). Par contre, si tu te retrouve à dépassé la quantité de mémoire vidéo disponible, c'est souvent une grosse chute de FPS.
Effectivement. Un Ryzen 2600 + carte mère A320 + une RX 5500 ou une RX 580 4Go + 8Go de RAM + écran 24 pouces FHD + SSD 250Mo Crucial ou Samsung + HD 2To + alim FSP 400W + casque filaire de base = PC pas cher pour 600 euros, strict mini qui permet de jouer à tout en FHD, en qualité moyenne (parfois meilleure que la qualité max quand on enlève un filtrage qui floute trop).
par Un ragoteur tahitien embusqué, le Lundi 23 Décembre 2019 à 18h26  
Maintenant, celui qui s'est payé une mobale en X570 à 250 boules mini, je ne pense pas qu'il va acheter une RX5500, non?
Perso, c'est mon cas et j'attends les prochaines vertes pour voir ce qu'elles auront dans le bid et je pense que AMD va devoir se bouger grave, sans quoi il ne leur restera plus que le prix pour exister!
par Unragoteursansespace en Auvergne-Rhône-Alpes, le Lundi 23 Décembre 2019 à 16h48  
par Scrabble le Lundi 23 Décembre 2019 à 14h37
Bon, quel que soit le bus PCI-E, 4.0 ou 3.0, il est de toutes façons
fortement déconseillé d'acheter la version 4 Go de la RX 5500 XT, vu
qu'elle est déjà obsolète. La version 4 Go est en fait destinée aux
pauvres ou aux radins, qui n'y connaissent rien et veulent économiser
trois francs six sous
fanboys.
Fixed.

C'est la seule explication crédible comparativement à une GTX 1650 SUPER.

source:
https://www.techpowerup.com/review/sapphire-radeon-rx-5500-xt-pulse-4-gb/30.html
par sosombre en Provence-Alpes-Côte d'Azur, le Lundi 23 Décembre 2019 à 16h31  
https://www.youtube.com/watch?v=Utv144XeHag
par sosombre en Provence-Alpes-Côte d'Azur, le Lundi 23 Décembre 2019 à 16h29  
Quand tu monte en Résolution, tu monte aussi en utilisation de vram. Il y a une vidéo de Linus Tech qui explique bien ça. Bon en général la quantité de Vram est en adequation avec la puissance du GPU, pas vraiment d'en mettre beaucoup si de toute façon elle va galérer à faire tourner le jeu (c'est le cas de la 5500 xt). Par contre, si tu te retrouve à dépassé la quantité de mémoire vidéo disponible, c'est souvent une grosse chute de FPS.
par Ragoteur qui prend l'eau en Île-de-France le Lundi 23 Décembre 2019 à 13h06
Hmmm... C'est peut-être un choix de câblage interne délibéré pour que la version 4 Go ne puisse pas concurrencer la version 8 Go, ou encore une tentative pour vendre des plateformes X570 et des R3000 (avec un argument du genre "Vous avez un R3000 ? Économisez sur la mémoire de votre GPU !") mais c'est tiré par les cheveux.
Si c'était le cas, AMD seraient les premiers à en faire étalage car ils n'ont pas la mercatique modeste.

Ce que je me demande surtout c'est est-ce qu'il est fréquent d'avoir comme ça plusieurs gigots de textures dans un jeu, et si c'est le cas, est-ce qu'il arrive qu'il y en ait parfois jusqu'à 10 Go et donc que la DDR4 soit amenée à suppléer la HBM/GDDR6 si on est sur PCI-e 4 ?

Je ne sais pas quels jeux pompent vraiment en mémoire (à part un Skyrim over-moddé, j'imagine qu'on a fait pire depuis) mais avoir un GPU + un CPU en PCI-e 4 x16 ne serait donc pas totalement inutile s'ils sont un peu plus futureproof à ce niveau que les concurrents...
par Un ragoteur Grivois en Île-de-France, le Lundi 23 Décembre 2019 à 15h09  
Vu le faible prix de la RAM, pas de raison pour acheter des cartes Castres avec juste 4Go de RAM !

La RAM embarque sera TOUJOURS plus rapide que celle a disposition via un port PCIE, SATA etc..., en vitesse de Ram c'est celle du CPU la plus rapide (et aussi la plus faiblement dose !) puis de la Carte Graphique, puis de la Mobo (Barettes) et enfin le DDur en SSD
par Scrabble, le Lundi 23 Décembre 2019 à 14h37  
Bon, quel que soit le bus PCI-E, 4.0 ou 3.0, il est de toutes façons fortement déconseillé d'acheter la version 4 Go de la RX 5500 XT, vu qu'elle est déjà obsolète. La version 4 Go est en fait destinée aux pauvres ou aux radins, qui n'y connaissent rien et veulent économiser trois francs six sous.
par albanette, le Lundi 23 Décembre 2019 à 13h53  
c'est paradoxale car les cartes RX 5500 XT iront en majorité sur des cartes meres entrée de gamme
AMD devrait juste supprimer la branche communication: elle est contre productive
par Ragoteur qui prend l'eau en Île-de-France, le Lundi 23 Décembre 2019 à 13h06  
Hmmm... C'est peut-être un choix de câblage interne délibéré pour que la version 4 Go ne puisse pas concurrencer la version 8 Go, ou encore une tentative pour vendre des plateformes X570 et des R3000 (avec un argument du genre "Vous avez un R3000 ? Économisez sur la mémoire de votre GPU !") mais c'est tiré par les cheveux.
Si c'était le cas, AMD seraient les premiers à en faire étalage car ils n'ont pas la mercatique modeste.

Ce que je me demande surtout c'est est-ce qu'il est fréquent d'avoir comme ça plusieurs gigots de textures dans un jeu, et si c'est le cas, est-ce qu'il arrive qu'il y en ait parfois jusqu'à 10 Go et donc que la DDR4 soit amenée à suppléer la HBM/GDDR6 si on est sur PCI-e 4 ?

Je ne sais pas quels jeux pompent vraiment en mémoire (à part un Skyrim over-moddé, j'imagine qu'on a fait pire depuis) mais avoir un GPU + un CPU en PCI-e 4 x16 ne serait donc pas totalement inutile s'ils sont un peu plus futureproof à ce niveau que les concurrents...