COMPTOIR
  
register

AMD ne croit pas au DLSS de Nvidia

C'est de bonne guerre, à chaque technologie propriétaire, le concurrent cherche à minimiser voire basher l'impact de celles-ci sur le marché. Avec le DLSS de Nvidia, AMD pense que c’est voué à l'échec. Premièrement cet upscaling déguisé par le travail des Tensor Cores est plus intelligent qu'une simple interpolation des pixels, il permet d'adapter le rendu final à la scène tout en éliminant le plus possible le flou généré par les filtres anti-aliasing type post process comme le TAA pour ne citer que le plus réputé dans ce domaine. Pour ça il faut des unités d'IA et c’est ce que possède les GPU Turing embarqués dans les RTX.

 

Malgré cela, AMD ne croit pas en l'avenir du DLSS, le contraire aurait quand même été étonnant. Sasa Marinkovic, directeur marketing, pense que son adoption trop lente est un signe de son non succès. Et comme il aime à le rappeler, le TAA ou le SMAA fonctionnent extrêmement bien sur la Radeon VII. On serait tenté de dire " et les autres Radeon ?". Autre point qui va un peu à l'encontre de l'essence même du DLSS, c'est qu'il estime que le rendu est artéfacté et plus dur, au contraire du TAA qui lisse plus. Alors lequel des deux est le plus efficace visuellement ? Toujours est-il qu'en ne soutenant pas le DLSS, guerre de concurrence simple classique, on en oublierait presque qu'AMD n'a en fait aucune technologie ayant la même philosophie en cet instant T, c'est à dire offrir un rendu identique au TAA tout en étant moins flou (en règle générale) et en offrant un boost de performance par optimisation des calculs dédiés.

 

amd nvidia ruby

 

On peut ne pas apprécier Nvidia pour des tas de raisons, entre autres choses ses tarifs de dingue sur les RTX en l'absence de concurrence coriace sur le HDG malgré une Radeon 7 qui pourra tenir sa place, ou encore l'avarice sur la quantité de VRAM des cartes Turing hormis la 2080 Ti, mais on ne peut pas lui reprocher son approche ou son manque d'audace technologique. Le RT devrait prendre, DXR étant une technologie Microsoft et non Nvidia, on peut dire que le caméléon a suivi la chose au mieux en l'état actuel des avancées techniques d'usinage. Pour le DLSS, ça sera plus dur de toute évidence ! En somme l'histoire des technos propriétaires dont le DLSS fait partie va donner lieu à un bras de fer avec AMD et les développeurs. MSAA for ever ! (Source PCGamesN)

 

predator brasdeferDLSS ou pas, that is the question major !

Un poil avant ?

Petits tests pour Metro Exodus : quid des rapports de force entre GPU ?

Un peu plus tard ...

Un nouveau jeu d'instructions chez ARM : l'ARMv8.1M

Les 55 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par TwoFace, le Dimanche 24 Février 2019 à 08h27  
par Gfuxx le Dimanche 24 Février 2019 à 08h18
https://www.youtube.com/watch?v=Pt-8DjPMOvU
Ça s'est nettement amélioré, plus de floue
Oui moins de flou et plus de détail, reste plus qu'à attendre le même gain de qualité sur BFV
par Gfuxx, le Dimanche 24 Février 2019 à 08h18  
https://www.youtube.com/watch?v=Pt-8DjPMOvU
Ça s'est nettement amélioré, plus de floue
Message de Gfuxx supprimé par un modérateur : doublon
par Un ragoteur de transit en Provence-Alpes-Côte d'Azur, le Lundi 18 Février 2019 à 07h33  
par chpich le Dimanche 17 Février 2019 à 12h22
MSAA for ever !
+1
par chpich, le Dimanche 17 Février 2019 à 12h22  
MSAA for ever !
par Un ragoteur du Grand Est, le Dimanche 17 Février 2019 à 08h42  
Ce que Sasa Marinkovic a dit est le résultat du brainstorming dont nous avons pu nous procurer le compte-rendu :
Sasa : Bon, le DLSS, on en dit quoi ?
Dylan : Et bien que c'est super, que d'ici 6 mois/1 an, quand les réseaux de neurones auront bien été entraînés et qu'ils feront leur boulot vite et bien, plus aucune carte sans la possibilité d'avoir du DLSS ne se vendra plus tellement elle sera à la ramasse niveau performances ! C'est génial, quoi !
Sasa : Dylan, espèce de *bip*, de *bip*, on va pas dire ça, tu es *bip* ou quoi ? On n'a pas de tensor core, on ne bosse dessus que depuis 6 mois, depuis que nvidia a annoncé la sortie des Turing. On n'aura rien avant au moins 2 ans, espèce de *bip*, *bip*, *bip*.
Dylan : Bon, ben, on n'a qu'à dire que c'est tout naze, que ça sert à rien, que c'est pourri comme un poisson qu'on a laissé au soleil pendant deux semaines !
Sasa : Dylan mais tu es encore plus *bip* que je le croyais. Je t'ai dit qu'on bosse dessus !!!
Dylan : Ahhhhh, euh, alors on va juste dire que ça ne nous intéresse pas parce que c'est pas mieux que le TAA que notre VII fait très bien. Et en plus qu'on bosse sur une version open source du machin, ça fera plaisir aux fans.
Sasa : ouais, on va faire ça...
par TwoFace, le Samedi 16 Février 2019 à 19h06  
par RagogodugrandEST le Samedi 16 Février 2019 à 18h57
Nvidia s'entraîne donc, bah merci aux testeurs de RTX.
Remarque ils ont de quoi tester leurs matos, essaye de faire pareil avec 16go de VRAM
par RagogodugrandEST, le Samedi 16 Février 2019 à 18h57  
par TwoFace le Samedi 16 Février 2019 à 14h32
Ils vont améliorer le DLSS sur BVF par exemple...
SOURCE

https://forums.geforce.com/ default/topic/1098097/geforce-drivers/official-418-91-game-ready-whql-display-driver-feedback-thread-released-2-13-19-/6/
Nvidia s'entraîne donc, bah merci aux testeurs de RTX.
par Scrabble, le Samedi 16 Février 2019 à 18h06  
par TwoFace le Samedi 16 Février 2019 à 17h31
Tu es vraiment cinglé, il n'y a plus aucun doute !!!
Remarque au moins tu es utile au forum tu fais de l'audimat !!!
par Thibaut G., le Samedi 16 Février 2019 à 17h39  
par Jemporte le Samedi 16 Février 2019 à 17h06
Tu viens exactement de prouver ce que je disais puisque Nvidia va progressivement basculer sur Freesync 2, qu'ils appelleront ce qu'ils voudront en Gsync approuved ou compatible, mais c'est la même chose. Ils ont tenté de sortir une solution payante, fermée, alors qu'ils faisaient partie avec Intel et AMD du groupe de développement ouvert de ce genre de solution. Pour rappel le DXR est développé par M$ en collaboration avec AMD, Nvidia, Intel et Nvidia est allé bidouiller à la va-vite une solution maison, foireuse et coûteuse, juste pour se distinguer, vendue à prix d'or... c'est comme ça qu'on devrait présenter le RTX.
tu fais bien d'écrire n'importe quoi et de le mettre en gras, comme Nvidia suit les sites dont CDH, tu auras peut etre de quoi t'occuper avec une attaque en diffamation. Et je passe sur le gros n'importe quoi de la norme VESA Adaptive Sync où tu invites tout le monde à la table alors que ça n'a pas été le cas du tout. Parce que tu accumules beaucoup de bullshit verbal, et ça ne fait même plus illusion auprès des autres lecteurs qui ne te loupent plus. Pascal t'avait demandé de faire quelque chose par mail, manifestement t'as déjà oublié, c'est pas bon...
par TwoFace, le Samedi 16 Février 2019 à 17h31  
par Jemporte le Samedi 16 Février 2019 à 17h06
Tu viens exactement de prouver ce que je disais puisque Nvidia va progressivement basculer sur Freesync 2, qu'ils appelleront ce qu'ils voudront en Gsync approuved ou compatible, mais c'est la même chose. Ils ont tenté de sortir une solution payante, fermée, alors qu'ils faisaient partie avec Intel et AMD du groupe de développement ouvert de ce genre de solution. Pour rappel le DXR est développé par M$ en collaboration avec AMD, Nvidia, Intel et Nvidia est allé bidouiller à la va-vite une solution maison, foireuse et coûteuse, juste pour se distinguer, vendue à prix d'or... c'est comme ça qu'on devrait présenter le RTX.
Tu es vraiment cinglé, il n'y a plus aucun doute !!!
Remarque au moins tu es utile au forum tu fais de l'audimat !!!
par Jemporte, le Samedi 16 Février 2019 à 17h21  
Si on regarde bien, l'ensemble du système RTX doit être lourdement amélioré et intégré au rendu des moteurs 3D des jeux et pas ajouté en surcouche, pour bien fonctionner. Pour faire un travail valable, il faudrait que la partie raytrace fasse en gros 10x le boulot de la 2080Ti pour sortir du domaine du gadget, tout en restant un rendu hybride. Ca nous met au 5nm optimisé EUV vers 2025. A ce moment là on commencera à voir un différence.
L'idée finale c'est de faire du raytacing pur. Pour ça, au jugé de ce qui se fait en rendu pro et des capacités nécessaires de clacul, il faudra augmenter la puissance par au moins 100x celui de la 2080Ti, pour un rendu basique filtré de son bruit, en pur raytrace Full HD. Pour du bon 4k, viser x1000, x10000 en fonction du nombre de lumières des matériaux etc.
Pour le x100, il faudra des GPU 3D multicouche (comme la HBM2) avec un gravure à 3nm EUV qu'on pourra atteindre peut-être vers 2030 voire un peu avant. Tout ça suivant le niveau de concurrence et volonté d'investissement (on a vu comment Intel était capable de se reposer sur ses lauriers en absence de concurrence).
Donc, pour moi, je me fais pas d'illusions, la voie raytrace temps réel, c'est top, mais il faut que ce soit bien foutu pour que ça présente un intérêt, et c'est pas du tout pour tout de suite.