COMPTOIR
register

NVIDIA annonce son DSR avec IA

NVIDIA possédait déjà le DSR, acronyme de Dynamic Super Resolution. Cela s'active dans la gestion des paramètres 3D, case DSR Facteurs. Le but c'est de faire calculer à la carte le nombre de pixels supérieurs à la définition de votre écran, puis par un filtre de lissage et de downscaling, restituer cette image dans votre définition. C'est quasiment l'antialiasing idéal, lorsque vous faites cela, vous pouvez vous passer d'AA dans les options. Seule contrainte, ça pompe un max de ressources, mais vous pouvez activer jusqu'à 4x le nombre de pixels de votre définition, par exemple si vous êtes en QHD alias 2560x1440, vous pouvez obtenir dans les options du jeu le 5120x2880, et si vous êtes en UHD, vous pouvez sélectionner 7680x4320.

 

C'est ouvert à toutes les GeForce, mais NVIDIA a trouvé une autre application à ses tensor cores, ceux qui ne se trouvent que dans les RTX. Ce calcul dans les définitions supérieures sera désormais accéléré par ces tensor cores et l'IA, ceci afin d'avoir la même qualité qu'avant, mais avec des performances identiques aux définitions natives de votre moniteur. L'astuce, c'est qu'au lieu de calculer 4x le nombre de pixels, l'IA ne le fera que sur 2.25x, pour une qualité identique. Ça fonctionne sur quasiment tous les jeux d'ailleurs, comme le DSR.

 

Ce Deep Learning DSR arrivera le 14 janvier, avec le pilote certainement prévu pour God of War, qui aura du DLSS et qui sera un jeu majeur. Et à chaque gros titre, on a droit à un pilote.

 

nvidia new longeur

Un poil avant ?

Linux 5.16 est de sortie : support de l'AMX et futex2 en folie !

Un peu plus tard ...

La RTX 3080 12 Gio est donc officielle, quel étrange lancement pour du haut de gamme quand même !

Les 18 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Rockfort, le Samedi 15 Janvier 2022 à 00h02  
je bug içi avec ces pilotes
Config 3 écrans 1080P 60hz + 1440p 144hz + 4k 120hz
Le 4k passe parfois en "bug mode" qui consiste a afficher une buoillie de pixel "parasite" comme une tv cathodique a l'ancienne qui affiche des parasites quand elle n'est pas branché. Mon écran affiche subitement des pixel aléatoire et uniforme de toutes les couleurs et "fourmille".
si je debranche/rebranche l'écran il revient normal entre 5 minutes et plusieurs heures.
Même solution en activant/désactivant le hdr dans windows.

Si la carte check l'écran l'image revient.

Testé avec les pilotes "studio" de la fournée actuelle et pas de soucis.
par Un ragoteur bio en Île-de-France, le Jeudi 13 Janvier 2022 à 08h21  
par dfd le Mardi 11 Janvier 2022 à 22h45
Je pige pas la plus-value du DLDSR par rapport au DLSS...
Ca s'adresse aux possesseurs des mêmes CG RTX avec Tensor Cores.
Je pige pas bien...
Ça n'a rien à voir, le DLSS est un algo de upsampling là où le DLDSR est un algo de downsampling.
Le DLSS sacrifie un peu de qualité pour beaucoup plus de perforance là où le DLDSR sacrifie beaucoup de performance pour un peu (beaucoup ça dépend du jeu) de qualité
Ça fonctionne magnifiquement bien sur les vieux jeux qui n'ont pas d'algo d'antialiasing intégré.
par Thibaut G., le Mercredi 12 Janvier 2022 à 21h26  
par Un ragoteur RGB en Île-de-France le Mercredi 12 Janvier 2022 à 16h57
Moi ce que j'ai toujours compris c'est : (exemple pour un écran 1080p)

DSR : Affiche une résolution supérieure (DSR 4x = 2160p = 4K) à la résolution native de votre écran (1080p), c'est un peu comme quand tu veux lire une vidéo youtube en qualité "4K" en mode plein écran (1080p). Mais dans ce cas, les FPS se prennent une grosse baffe car il faut calculer 4 fois plus de pixels.

DLSS : Upscale par l'IA, d'une résolution inférieure (DLSS Quality = 720p) vers la résolution native de votre écran (1080p). Le gain de FPS vient donc du fait que la résolution qui sert de base aux calcul contient moins de pixels, et l'IA est censée être là restituer une image en 1080p très propre.

DLDSR : Downscale par l'IA, d'une résolution supérieure (DLDSR 2,25x = 1620p) vers la résolution native de votre écran (1080p). Dans ce cas les FPS se prennent une pichenette gentille, et l'IA est censée restituer une image en 1080p équivalente au DSR 4x (4K).

Après corrigez moi si je dis n'imp...
non tu as bien résumé le truc, mieux que je n'ai su le faire
par Un ragoteur RGB en Île-de-France, le Mercredi 12 Janvier 2022 à 16h57  
Moi ce que j'ai toujours compris c'est : (exemple pour un écran 1080p)

DSR : Affiche une résolution supérieure (DSR 4x = 2160p = 4K) à la résolution native de votre écran (1080p), c'est un peu comme quand tu veux lire une vidéo youtube en qualité "4K" en mode plein écran (1080p). Mais dans ce cas, les FPS se prennent une grosse baffe car il faut calculer 4 fois plus de pixels.

DLSS : Upscale par l'IA, d'une résolution inférieure (DLSS Quality = 720p) vers la résolution native de votre écran (1080p). Le gain de FPS vient donc du fait que la résolution qui sert de base aux calcul contient moins de pixels, et l'IA est censée être là restituer une image en 1080p très propre.

DLDSR : Downscale par l'IA, d'une résolution supérieure (DLDSR 2,25x = 1620p) vers la résolution native de votre écran (1080p). Dans ce cas les FPS se prennent une pichenette gentille, et l'IA est censée restituer une image en 1080p équivalente au DSR 4x (4K).

Après corrigez moi si je dis n'imp...
par Wulfy, le Mercredi 12 Janvier 2022 à 11h35  
Ça m'arrive d'utiliser le DSR, sur certains jeux c'est un petit plus et des fois inutile. Au moins ça a le mérite d'exister.
par Thibaut G., le Mercredi 12 Janvier 2022 à 11h21  
par Jemporte le Mercredi 12 Janvier 2022 à 05h53
Vous dites que l'IA calcule plus de pixels 2.25x par l'IA, comme si c'était nouveau.
En fait non. Ils font juste du DLSS pour augmenter le nombre de pixels puis appliquent un algorithme style gauss pour réduire, qui d'ailleurs pourrait utiliser aussi les coeurs tenseurs (pourquoi se priver) et d'ailleurs dans ce cas ça se rapprochera du DLAA.

L'intérêt ? La vitesse. On perd pas en vitesse, comme pour le DLSS, puisqu'on ne joue en fait que dans la vitesse de la résolution d'affichage.

Maintenant niveau qualité, il faut voir. L'augmentation des pixels pour calculer une meilleure image plus pixelisée est spéculative. Puis on applique un algorythme pour ramener le nombre de pixels à son état d'origine.

Une esprit un peu mathématique va trouver qu'on fait une opération en trop au lieu de fusionner les deux en une seule. Alors c'est soit que Nvidia l'a fait mais donne une explication scolaire du principe. Soit au contraire, il ne se sont pas cassé les couilles et ont profité de leurs coeurs tenseurs à foison pour réutiliser deux algorythmes déjà implémentés dans des routines.
comme beaucoup, tu ne fais pas de différence entre DLSS et DSR/DLDSR. Je vais le faire parce que tu n'as pas compris. le DLSS, permet d'afficher plus d'images par seconde tout en étant un AA par IA pour jouer dans la définition de ton écran. Le DSR/DLDSR permet d'afficher plus de détails/pixels dans l'image qui est calculée, le tout dans une définition supérieure à celle de ton écran. Par contre le filtre de downscaling (le DLSS est de l'upscaling) ajuste l'image calculée pour qu'elle soit restituée sur ton écran, à sa vraie définition, un écran qui affiche de l'UHD n'a pas tout à coup 4x plus de pix
par Jemporte, le Mercredi 12 Janvier 2022 à 05h53  
Vous dites que l'IA calcule plus de pixels 2.25x par l'IA, comme si c'était nouveau.
En fait non. Ils font juste du DLSS pour augmenter le nombre de pixels puis appliquent un algorithme style gauss pour réduire, qui d'ailleurs pourrait utiliser aussi les coeurs tenseurs (pourquoi se priver) et d'ailleurs dans ce cas ça se rapprochera du DLAA.

L'intérêt ? La vitesse. On perd pas en vitesse, comme pour le DLSS, puisqu'on ne joue en fait que dans la vitesse de la résolution d'affichage.

Maintenant niveau qualité, il faut voir. L'augmentation des pixels pour calculer une meilleure image plus pixelisée est spéculative. Puis on applique un algorythme pour ramener le nombre de pixels à son état d'origine.

Une esprit un peu mathématique va trouver qu'on fait une opération en trop au lieu de fusionner les deux en une seule. Alors c'est soit que Nvidia l'a fait mais donne une explication scolaire du principe. Soit au contraire, il ne se sont pas cassé les couilles et ont profité de leurs coeurs tenseurs à foison pour réutiliser deux algorythmes déjà implémentés dans des routines.
par Calinou, le Mardi 11 Janvier 2022 à 23h12  
La description du DLDSR me fait beaucoup penser au DLAA (= DLSS à partir de la résolution native). Quelle est la différence ? S'agit-il juste d'une version de meilleure qualité du DLAA ?
par Un Evoli d'Occitanie, le Mardi 11 Janvier 2022 à 22h53  
par Thibaut G. le Mardi 11 Janvier 2022 à 22h10
j ai essayé avec chernobylite, ca passe, la MAJ de Hellblade 2, ça passe, assetto corsa competizione, tous en UE4. Certainempent pas la version 4.27 plutot en 4.25 ou 4.26. Mais ca sent le bug plus qu'autre chose. Après je suis pas spécialiste, mais ça passe plutôt bien, autant que le VSR d'AMD, l'équivalent au DSR
Merci d'avoir pris le temps d'essayer du coup ça doit venir de mon setup
Je chercherais quand je voudrais jouer à un jeu léger utilisant UE
par dfd, le Mardi 11 Janvier 2022 à 22h45  
Je pige pas la plus-value du DLDSR par rapport au DLSS...
Ca s'adresse aux possesseurs des mêmes CG RTX avec Tensor Cores.
Je pige pas bien...
par Thibaut G., le Mardi 11 Janvier 2022 à 22h10  
par Un Evoli d'Occitanie le Mardi 11 Janvier 2022 à 22h04
Je parle bien du DSR actuellement présent et qui l'est depuis des années
Je viens d'essayer avec un nouveau projet vide sur UE 4.27 (travaillant avec actuellement) et j'ai assigné une touche pour le fullscreen et une autre pour passé en 2880p, et donc le "jeu" à essayé de passer en 2880p puis est revenu tout de suite sur du 1440p (j'ai un moniteur 1440p), c'est donc le comportement de base de la dernière version d'UE4

Ce n'est pas un "loupé" et encore moins "rare", les jeux UE n'étant pas rare, donc la compatibilité d'un jeu UE avec le DSR de nvidia demande donc un travail supplémentaire

Ou alors c'est un problème de compatibilité entre mon setup et UE mais ayant eu ce problème avec une 1080 et ma 3080 actuelle, une multitude de version de drivers et au moins une reinstall Windows, j'ai des doutes mais c'est toujours possible

Au moins cet article m'aura motivé à vérifier si UE de base a un soucis avec le DSR
j ai essayé avec chernobylite, ca passe, la MAJ de Hellblade 2, ça passe, assetto corsa competizione, tous en UE4. Certainempent pas la version 4.27 plutot en 4.25 ou 4.26. Mais ca sent le bug plus qu'autre chose. Après je suis pas spécialiste, mais ça passe plutôt bien, autant que le VSR d'AMD, l'équivalent au DSR
par Un Evoli d'Occitanie, le Mardi 11 Janvier 2022 à 22h04  
par Thibaut G. le Mardi 11 Janvier 2022 à 21h15
euh je pense qu'on ne parle pas de la même chose. Les DSR marchent sur l'UE4, sans problème. Par contre, le DLDSR ne fonctionne forcément pas puisqu'il n'y a pas les pilotes pour l'activer, ça arrivera vendredi prochain, donc il est normal que les DLDSR ne marchent pas comme indiqué dans la news. mais les DSR oui. Le DLDSR ne remplace pas les DSR, il le complètera pour tous ceux qui ont une RTX.

Par contre, oui, le DSR ne fonctionne pas sur tous les jeux, il y a parfois des loupés, mais rares, peu importe le moteur
Je parle bien du DSR actuellement présent et qui l'est depuis des années
Je viens d'essayer avec un nouveau projet vide sur UE 4.27 (travaillant avec actuellement) et j'ai assigné une touche pour le fullscreen et une autre pour passé en 2880p, et donc le "jeu" à essayé de passer en 2880p puis est revenu tout de suite sur du 1440p (j'ai un moniteur 1440p), c'est donc le comportement de base de la dernière version d'UE4

Ce n'est pas un "loupé" et encore moins "rare", les jeux UE n'étant pas rare, donc la compatibilité d'un jeu UE avec le DSR de nvidia demande donc un travail supplémentaire

Ou alors c'est un problème de compatibilité entre mon setup et UE mais ayant eu ce problème avec une 1080 et ma 3080 actuelle, une multitude de version de drivers et au moins une reinstall Windows, j'ai des doutes mais c'est toujours possible

Au moins cet article m'aura motivé à vérifier si UE de base a un soucis avec le DSR