COMPTOIR
  
register

GeForce RTX 5060 Ti et RTX 5060 : une bonne nouvelle et une mauvaise

Intel a ouvert le bal des cartes graphiques de nouvelle génération en lançant une Arc B580 plutôt remuante. Comme explicité dans notre revue de tests, cette référence se hisse bien au niveau de la GeForce RTX 4060 de NVIDIA, et éclipse les Radeon RX 7600 / XT d’AMD.

nvidia geforce

© NVIDIA

Mais forcément, les deux sociétés précitées n’ont pas l’intention de laisser la ballerine d’Intel monopoliser la scène s'ambiancer seule dans son coin : elles répliqueront début 2025 avec des cartes issues des ballets Blackwell et RDNA 4. Parmi celles-ci, les GeForce RTX 5060 et RTX 5060 Ti sont logiquement attendues. Ces petits rats ne sont bien sûr pas destinés à recevoir le titre d’Étoile réservé à la GeForce RTX 5090, voire à une hypothétique RTX Titan, mais se consoleront en devenant certainement, comme leurs prédécesseurs, le choix de la masse des joueurs. Hassan Mujtaba de WCCFTech prétend avoir connaissance de certaines de leurs spécificités.

16 Go de GDDR7 pour la GeForce RTX 5060 Ti, 8 Go pour la RTX 5060

Précédemment, nous avons eu quelques détails sur le flagship susmentionné ainsi que sur les GeForce RTX 5080 et RTX 5070. Pour les RTX 5060 Ti et RTX 5060, les informations de notre confrère se résume à deux données principales : la quantité de VRAM et la date de sortie.

Les GeForce RTX 5060 et 5060 Ti exploiterait une même carte de référence appelée PG152 ; vraisemblablement, le GPU GB206. D’après Hassan Mujtaba, la seconde profite de 16 Go de mémoire GDDR7, tandis que la première reste bloquée à 8 Go. Pour les deux références, le bus mémoire serait de 128 bits. En supposant une vitesse mémoire de 28 Gbit/s, cela donne une bande passante mémoire de 488 Go/s, contre 288 Go/s pour la GeForce RTX 4060 Ti et 272 Go/s pour la GeForce RTX 4060.

La standardisation des 16 Go de VRAM serait forcément une bonne chose pour la GeForce RTX 5060 Ti. Rappelons que pour la gamme Ada Lovelace, le modèle initial avait 8 Go. NVIDIA a introduit une variante à 16 Go ensuite. Dans les jeux actuels, l’écart est globalement faible en 1080p, mais se fait néanmoins ressentir en 1440p, en particulier avec du ray tracing activé.

Pour la GeForce RTX 5060 par contre, nul doute que les 8 Go seront un frein pour certains utilisateurs — même la petite sœur de l’Arc B580, la B570, offria 10 Go. Notre confrère n’exclut pas une nouvelle variante lorsque des modules GDDR7 de plus grande capacité seront produits en masse. Quoi qu’il en soit, en 2025, 8 Go cantonneront la future star des GeForce à du 1080p.

Les autres caractéristiques, comme le nombre de cœurs CUDA, RT, Tensor, restent inconnues. Hassan Mujtaba argue par contre avoir connaissance de la fenêtre de lancement des RTX 5060 Ti et RTX 5060 : entre fin février ou début mars. Cette prédiction contredit de précédentes rumeurs qui tablaient plutôt sur une sortie au deuxième trimestre 2025.

Carte graphiqueGPUCœurs CUDAVRAMTGP
GeForce RTX 5090 GB202-300 21760 32 Go G7 512b ~600 W
GeForce RTX 5080 GB203-400 10752 16 Go G7 256b ~400 W
GeForce RTX 5070 Ti GB203-300 8960 16 Go G7 256b ~285 W
GeForce RTX 5070 GB205-300 6400 12 Go G7 192b ~250 W
GeForce RTX 5060 Ti GB206 À déterminer 16 Go G7 128b À déterminer
GeForce RTX 5060 GB206 À déterminer 8 Go G7 128b À déterminer

L'article source de WCCFTech.
Un poil avant ?

Revue de presse des tests de l’Arc B580 : Intel livre une carte graphique enfin compétitive

Un peu plus tard ...

La NVIDIA App accusée de fracasser les performances dans certains jeux

Les 11 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Unragoteursansespace des Hauts-de-France, le Lundi 16 Décembre 2024 à 22h36  
Si la 5060 est vendu pour cibler du 1080p alors 8Go sera suffisant, d'autant plus qu'ils vont probablement sortir cette année leur techno de compression neuronal. Si ça leur permet de faire un prix concurrentiel face à la B580 et la prochaine d'AMD, leur choix est logique.
par anachoret, le Lundi 16 Décembre 2024 à 19h51  
par Un champion du monde embusqué ?? le Lundi 16 Décembre 2024 à 18h25
De plus rtx5000 et rx8000 sont vendu comme les cartes ou enfin le RT est censé se généraliser hors le RT ça bouffe de la mémoire

Qu on me sorte qu une carte est pensé pour du 1080p et donc 8GB suffit, bah déjà que le des AMD ou NVIDIA soit raccord et vendent pas une telle carte plus de 250balles, c est déjà bien honéreux pour du "bête" 1080p

Mais je ressort encore la carte frame generation,RT, super sampling à l IA.... blablabla ... Ça consomme de la mémoire vidéo, nous vendre des techno qui n arrive pas à tourner car castrer en quantité de mémoire. Et nous jouer de la flûte que grâce à des algo de compression magique non non t inquiète 8GB ça passe, aiiiii coooonfiaaance

Je le rappel t acheté pas une CG pour qu'elle dur 10mois n en déplaise à NVIDIA premier à toujours faire son gros rat sur la quantité de mémoire et ce depuis belle lurette
On reparle des 8800gts 320Mo vs 640Mo
Je ne sais pas où tu as vu que le RT bouffait de la VRAM. Perso, selon mes tests, c'est le GPU qui est plus sollicité (ce qui est logique), pareil pour le DLSS, seuls les ips en supplément peuvent, à la rigueur, avoir un impact sur le CPU.
Le frame gen non plus n'a pas de réel impact sur le CPU....décidément, c'est un miss complet!

Tu n'achètes peut-être pas une carte pour 1 an ou 2 mais, à 300/400 euros et vu que l'on vit, depuis maintenant des décennies, dans une société de consommation qui s'affirme de plus en plus (parce-que tout le monde laisse faire) , il ne faut pas rêver ou alors, être prêt à faire des concessions.
par anachoret, le Lundi 16 Décembre 2024 à 19h34  
par Un champion du monde embusqué ?? le Lundi 16 Décembre 2024 à 19h01
Sans parler de réglage "Ultra" les RTX les première te market le raytracing depuis les rtx2000
Le "R" il est là pour ça... On nous le fait cher payé en tensor core, RT core...
C est pas le client qui a demander à NVIDIA de faire disparaitre les "G"TX
À l époque des "R"TX2000 beaucoup n aurait pas dit non à une GTX"1680" pour faire suite aux gtx1080ti vu qu il y a eu des gtx16x0

Et au passage NVIDIA a très vite effacé de ses propre bench raytracing les rtx2000 tellement c était de la grosse M vs les rtx3000 qui ont suivi
Ça les a pas plus derangé de "cracher/oublier" leur rtx3000 dès qu il a fallut vendre le frame gen des rtx4000

On va encore bien rigoler de savoir ce qui ne marchera pas sur rtx4000 pour vendre les 5000
Je dois avouer que je n'ai pas tout compris mais bon il ne faut pas espérer faire du ray-tracing au max avec des cartes à 300/400 euros, d'autant qu'elles font toujours mieux que les cartes concurrentes. Et quand on prend du Nvidia, au-delà de leurs capacités en RT, c'est souvent pour la stabilité des drivers (oui, c'est toujours aussi scabreux chez ATI/AMD et ce, depuis leurs débuts) et les différentes features souvent plus optimisées (conso, upscaling etc.).

Ce qui ne fonctionnera pas avec les 4xxx vs les 5xxx, les nouvelles variantes de DLSS sans doute, comme avant, mais il y aura certainement encore des solutions de contournement.
par Un champion du monde embusqué ••, le Lundi 16 Décembre 2024 à 19h01  
par anachoret le Lundi 16 Décembre 2024 à 14h12
Vu que ces cartes 8 Go sont destinées à du full HD, je ne vois pas en quoi ce serait stupide de les acheter car ça suffit largement dans la majorité des cas.

Il n'y a qu'en poussant les graphismes au max, dans certains jeux, que cela peut s'avérer problématique mais seuls les idiots poussent tous les curseurs en ULTRA et +. Cela n'apporte quasiment rien et ça pèse lourd presque inutilement. La plupart va plutôt tabler sur la fluidité et les ips.
Sans parler de réglage "Ultra" les RTX les première te market le raytracing depuis les rtx2000
Le "R" il est là pour ça... On nous le fait cher payé en tensor core, RT core...
C est pas le client qui a demander à NVIDIA de faire disparaitre les "G"TX
À l époque des "R"TX2000 beaucoup n aurait pas dit non à une GTX"1680" pour faire suite aux gtx1080ti vu qu il y a eu des gtx16x0

Et au passage NVIDIA a très vite effacé de ses propre bench raytracing les rtx2000 tellement c était de la grosse M vs les rtx3000 qui ont suivi
Ça les a pas plus derangé de "cracher/oublier" leur rtx3000 dès qu il a fallut vendre le frame gen des rtx4000

On va encore bien rigoler de savoir ce qui ne marchera pas sur rtx4000 pour vendre les 5000
par Un champion du monde embusqué ••, le Lundi 16 Décembre 2024 à 18h25  
Le 1080p ça reste plutôt une tendance sur notebook
Sur les marché ou les clients on les moyen de foutre 450balles dans une CG, sur desktop ça se tourne de plus en plus vers le 1440p

De plus rtx5000 et rx8000 sont vendu comme les cartes ou enfin le RT est censé se généraliser hors le RT ça bouffe de la mémoire

Qu on me sorte qu une carte est pensé pour du 1080p et donc 8GB suffit, bah déjà que le des AMD ou NVIDIA soit raccord et vendent pas une telle carte plus de 250balles, c est déjà bien honéreux pour du "bête" 1080p

Quand derrière on te sort des carte avec des bus 128bits ou 64bits (coucou AMD rx6500) sur 8 ou 4 ligne PCIe... Là encore n escompté pas les vendre plus de 250 boules

Mais je ressort encore la carte frame generation,RT, super sampling à l IA.... blablabla ... Ça consomme de la mémoire vidéo, nous vendre des techno qui n arrive pas à tourner car castrer en quantité de mémoire. Et nous jouer de la flûte que grâce à des algo de compression magique non non t inquiète 8GB ça passe, aiiiii coooonfiaaance

Je le rappel t acheté pas une CG pour qu'elle dur 10mois n en déplaise à NVIDIA premier à toujours faire son gros rat sur la quantité de mémoire et ce depuis belle lurette me souvient de ma 8800gtx 768Mo qui s en sortait bien mieux que la 8800gt 256Mo... Pour au final le Revival de celle 512Mo (9800gt)
On reparle des 8800gts 320Mo vs 640Mo

par anachoret, le Lundi 16 Décembre 2024 à 14h12  
par Scrabble le Lundi 16 Décembre 2024 à 12h39
Il y aura encore pour quelques annees un marche pour les cartes graphiques avec 8Go, et lorsque nVIDIA verra que ca ne se vends plus, il pourra sortir une RTX 5060 12Go avec de la GDDR7 a 3Go par puce, donc tout ca est logique.
Evidemment qu'acheter une CG avec 8Go est deconseille, mais il y a encore des gamers qui veulent absolument du nVIDIA pour pas trop cher
Vu que ces cartes 8 Go sont destinées à du full HD, je ne vois pas en quoi ce serait stupide de les acheter car ça suffit largement dans la majorité des cas.

Il n'y a qu'en poussant les graphismes au max, dans certains jeux, que cela peut s'avérer problématique mais seuls les idiots poussent tous les curseurs en ULTRA et +. Cela n'apporte quasiment rien et ça pèse lourd presque inutilement. La plupart va plutôt tabler sur la fluidité et les ips.
par Un ragoteur qui draille des Pays de la Loire, le Lundi 16 Décembre 2024 à 13h03  
il y aura aussi surement la 5060ti 8go histoire de tirer les prix vers le haut.

j'ai quand même du mal a croire ces rumeurs.

nvidia ne ferait donc aucun effort sur la quantité de vram ? quand on voit la misère que se prend la 4060ti 8go face a la 16go sur indiana jones, ca fait reféchir ! +400€ quand même cette cg !
par Scrabble, le Lundi 16 Décembre 2024 à 12h39  
Il y aura encore pour quelques annees un marche pour les cartes graphiques avec 8Go, et lorsque nVIDIA verra que ca ne se vends plus, il pourra sortir une RTX 5060 12Go avec de la GDDR7 a 3Go par puce, donc tout ca est logique.
Evidemment qu'acheter une CG avec 8Go est deconseille, mais il y a encore des gamers qui veulent absolument du nVIDIA pour pas trop cher
par Rémi B., le Lundi 16 Décembre 2024 à 12h31  
par Un ragoteur du Barbouzes club embusqué ?? le Lundi 16 Décembre 2024 à 11h52
Une 5070 à 12Go et une 5060Ti à 16Go.
Je sais qu'ils l'ont déjà fait, mais bon...
Quant à " la ballerine d'Intel monopolisant la scène", ça ressemble plus à un paper launch pour l'instant. Et vu la taille de la puce, je me demande si Intel n'y perd pas du fric au prix de vente annoncé, d'où la faible dispo. Chais pas..
Cette tournure était effectivement un peu exagérée.
par Jemporte, le Lundi 16 Décembre 2024 à 12h14  
par Un ragoteur du Barbouzes club embusqué ?? le Lundi 16 Décembre 2024 à 11h52
Une 5070 à 12Go et une 5060Ti à 16Go.
Je sais qu'ils l'ont déjà fait, mais bon...
Quant à " la ballerine d'Intel monopolisant la scène", ça ressemble plus à un paper launch pour l'instant. Et vu la taille de la puce, je me demande si Intel n'y perd pas du fric au prix de vente annoncé, d'où la faible dispo. Chais pas..
Ah oui j'avais pas remarqué. La puce de la B580 en 5nm TSMC comme celle de la 4060Ti (cette dernière est plus rapide) fait 1.5x la taille de la Nvidia, et niveau conso c'est un poil plus aussi. Intel n'est pas prêt de rattraper Nvidia. Sur ce point AMD et Nvidia se tiennent voire il arrive qu'AMD fasse plus compact que Nvidia à perfs égales mais conso sensiblement plus élevée pour AMD.
On peut se demander s'il ne s'agit pas d'une puce castrée chez Intel, par exemple d'1/3. Avec le puce pleine réservée à un plus haut de gamme.
par Un ragoteur du Barbouzes club embusqué ••, le Lundi 16 Décembre 2024 à 11h52  
Une 5070 à 12Go et une 5060Ti à 16Go.
Je sais qu'ils l'ont déjà fait, mais bon...
Quant à " la ballerine d'Intel monopolisant la scène", ça ressemble plus à un paper launch pour l'instant. Et vu la taille de la puce, je me demande si Intel n'y perd pas du fric au prix de vente annoncé, d'où la faible dispo. Chais pas..