COMPTOIR
register

Test DX12 pour The Division

DirectX 12 est là depuis un petit moment, et l'année 2016 aura confirmé les craintes nées de la philosophie de l'API inspirée de Mantle. Le but d'une telle API de bas niveau consiste à faire sauter les latences dans les calculs en optimisant ceux-ci, initialement c'était prévu pour les CPU mais les GPU peuvent profiter de ces améliorations. Pour y parvenir, il faut que les développeurs codent leurs jeux au plus près de l'architecture du GPU, et étant donné la grande variété de puces disponibles, ce travail n'est pas fait pour des raisons évidentes d’opération chronophage. Ceci d'ailleurs est incompatible avec les impératifs de rentabilité - moins on passe de temps à développer et moins cher coûte le jeu à élaborer - , mais aussi va à l'encontre de la programmation sur les consoles et leur architecture qui se traînent depuis le début des APU déjà largués à leur lancement et limitant énormément l’expansion des jeux sur PC. Du coup les studios sortent, quand ils ont envie, une rustine DX12 qui est censée apporter ce support qui n'a pas pu être implémenté initialement.

 

The Division n'échappe pas à la règle, et a vu son patch DX12 appliqué la semaine dernière. Gamegpu a fait son test, et il confirme, à l'instar de tous les jeux DX12 sortis qui ont un équivalent DX11, que ça reste de la bonne blague : les jeux tournent moins vite y compris sur Radeon et plus souvent sur Geforce, et le rendu visuel est le même. Du coup quel est l'intérêt de privilégier une version de jeu aussi belle mais plus lente ? A ce rythme, DX11 a de beaux jours devant lui, et c'est très certainement la voie qu'ont choisi les développeurs. Pour faire un focus sur l'article, en 1920x1080 Pascal et Polaris gagnent des performances, cela se perd en 2560x1440 et s'inverse en 3840x2160. Mais on est très loin des pourcentages théoriques de gains, quant aux pertes c'est juste inadmissible !

 

the division

 

Un poil avant ?

Nous avons essayé • ASUS ROG Claymore

Un peu plus tard ...

Un GPU Pascal a franchi les 3 GHz en fonctionnement !

Les 29 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par QuequetteEnOr, le Mercredi 21 Décembre 2016 à 11h02  
Sli/cross pas pris en compte en DX12 et perf pas au rendez vous, qu'ils aillent au diable!
par Un #ragoteur connecté embusqué, le Mardi 20 Décembre 2016 à 16h52  
par Kim Dieudo embusqué le Lundi 19 Décembre 2016 à 19h40
C'est la faute de Poutine de toute façon ...
C'est clair ,de plus vu que ce sont des Russes qui testent le jeu forcément que ça perturbe les GPU américains.
par Zia, le Mardi 20 Décembre 2016 à 00h43  
par psychotik2k3 le Lundi 19 Décembre 2016 à 19h44
crois moi faire tourner dishonored 2 sur une PS4 ou pire une xboite 1 ca c'est de l'optimisation. Car il y a bien plus de details que vous ne pouvez le penser.
Oui c'est le reproche que j'aurais tendance à faire. On optimise au mieux qu'on peut sur les consoles, puis on porte sur le PC.
Bon j'ai l'impression que c'est toi qui connait certains gars du studio de dev français ( par rapport aux ragot du CDH des premier bench de disho2).
Si jme rappelle un peu c'etait il on fait des test et pas trop probleme, le jeu est sortie. bon 7jours plus tard un patch ca trop de probleme.
Non t'il pas été trop obligé de mettre les moyens en oeuvre pour les PSboite et la date du 11novembre n'etait tel pas trop courte ou optimiste, voir imposé.
Bref les "tu sais toi... tu as deja..." . En gros je vais prendre un exemple concret: AMD.
Pas tellement le faite que la RX 480 est une sorte de 970 en 14nm mais le faite que
150W de conso fait plutot 180W et que apparement le connecteur 6 pins soit trop faible et qu'il sucais trop sur le PCI-E.( et surment un 14nm pas assez maitrisé ).
Donc moi, je ne suis pas un ingénieur et donc je ne peut me permettre de dire qu'il ont merdé ou que le probleme n'etait pas la quand il ont produit les pre-serie. et que le refresh, serait plus du genre 280->285 (speculations hein).
Enfin clause du contrat...
Message de BloodBrother supprimé par un modérateur : boulette ?
par Kim Dieudo embusqué, le Lundi 19 Décembre 2016 à 19h49  
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/

A priori, Poutine a payé les allemands pour dire le contraire ...
par psychotik2k3, le Lundi 19 Décembre 2016 à 19h44  
par Un ragoteur macagneur de Haute-Normandie le Lundi 19 Décembre 2016 à 19h16
Parce que utiliser tous les coeurs à fond c'est être optimisé ? LOL, on parle d'un jeu hein, y a strictement rien qui justifie d'utiliser autant de puissance, stop la fumette.
ok alors tu sais toi tout ce qui tourne dnas un morteur de jeu ???
tu as deja fait une IA potable ?
un moteur physique qui ne tourne pas sur thread du rendu ?
et meme ce dernier qui soit capable de calculer des aprties de scene pour par exemple n'afficher qu thread principal que ce qui est necessaire et rien d'autre.

oui j'appelle cela de l'optimisation car les CPU ne peuvent plus monter en frequence, et etre capable de faire un softr multicore c'est bien plus difficile.
et crois moi faire tourner dishonored 2 sur une PS4 ou pire une xboite 1 ca c'est de l'optimisation. Car il y a bien plus de details que vous ne pouvez le penser.
par Kim Dieudo embusqué, le Lundi 19 Décembre 2016 à 19h40  
C'est la faute de Poutine de toute façon ...
par Un ragoteur macagneur de Haute-Normandie, le Lundi 19 Décembre 2016 à 19h16  
par psychotik2k3 le Lundi 19 Décembre 2016 à 18h51
Alors honnêtement on se plaint déjà sur les jeux qui ne sont pas optimisés a leur sortie et qu'il faut attendre les patchs, et de l'autre on voudrait leur rajouter de la charge de travail (aux devs) pour avoir un truc optimisé au niveau CPU (car va n'est que ça en gros), et quand comme dishonored 2 le jeu utilise bien le CPU (8 cores) on se plaint en disant que c'est encore un jeu optimisé pour les consoles.

Bref arrêtez de râler ou mettez vous a développer et on en reparle.

Moi je vois juste que l'intérêt est que pour AMD car résultat c'est aux développeurs des jeux de faire toutes les optims et non pas a ceux des drivers AMD par ce qu'ils sont a la ramasse.
Parce que utiliser tous les coeurs à fond c'est être optimisé ? LOL, on parle d'un jeu hein, y a strictement rien qui justifie d'utiliser autant de puissance, stop la fumette.
par Un champignon du penis d'Ile-de-France, le Lundi 19 Décembre 2016 à 19h09  
par psychotik2k3 le Lundi 19 Décembre 2016 à 18h51
Alors honnêtement on se plaint déjà sur les jeux qui ne sont pas optimisés a leur sortie et qu'il faut attendre les patchs, et de l'autre on voudrait leur rajouter de la charge de travail (aux devs) pour avoir un truc optimisé au niveau CPU (car va n'est que ça en gros), et quand comme dishonored 2 le jeu utilise bien le CPU (8 cores) on se plaint en disant que c'est encore un jeu optimisé pour les consoles.

Bref arrêtez de râler ou mettez vous a développer et on en reparle.
Au pire je prefererais acheter à prix console et avoir une bien meilleur opti.
Puis pas test disho2 mais utilisé 8 coeurs et dire que c'est ca etre "optimisé".
Si ta une voiture d'aujourd'hui genre 4cylindre injection contre un 8cylindre de 3l des années vingt(1920), ben tu va pas dire que la voiture de 8cylindre est plus optimisé que celle de 2016 (en gros)
par psychotik2k3, le Lundi 19 Décembre 2016 à 18h51  
Alors honnêtement on se plaint déjà sur les jeux qui ne sont pas optimisés a leur sortie et qu'il faut attendre les patchs, et de l'autre on voudrait leur rajouter de la charge de travail (aux devs) pour avoir un truc optimisé au niveau CPU (car va n'est que ça en gros), et quand comme dishonored 2 le jeu utilise bien le CPU (8 cores) on se plaint en disant que c'est encore un jeu optimisé pour les consoles.

Bref arrêtez de râler ou mettez vous a développer et on en reparle.

Moi je vois juste que l'intérêt est que pour AMD car résultat c'est aux développeurs des jeux de faire toutes les optims et non pas a ceux des drivers AMD par ce qu'ils sont a la ramasse.
par Un ragoteur tout mignon de Midi-Pyrenees, le Lundi 19 Décembre 2016 à 18h35  
Ca permettra peut-être à Vulkan de venir se faire une place. On verra avec le temps, quand il y aura un peu plus que Doom comme seul vrai jeu pour comparer. Valve devrait nous apporter la réponse
par Starkuch, le Lundi 19 Décembre 2016 à 18h12  
par Thibaut G. le Lundi 19 Décembre 2016 à 17h17
la philosophie DX12 n'a rien à voir avec les anciens DX, c'est ça la grosse différence. Avant c'étaient aux deux nv et amd d'optimiser les routines, maintenant c'est aux devs à le faire pour chaque archi, grosse différence
Et du coup, c'est nous qui sommes perdant puisque les éditeurs n'ont absolument rien à gagner d'optimiser leur jeux de manière correct contrairement au constructeurs de GPU. Bref, j'ai l'impression de voir DX10, beaucoup de blabla et pas grand chose derrière.
C'était perdu d'avance cette histoire d'optimisation par les devs.