COMPTOIR
  
register

Premier test de la version finale de The Division

Et voilà, le dernier gros titre d'Ubisoft vient d'arriver quelques jours après Far Cry Primal. The Division a eu une gestation difficile, entre dégradation graphique depuis l'E3 2013, et multiples retards, rien ne fut facile. Et puis la beta il y a quelques semaines a eu un grand succès et a surpris son monde, agréablement même. A vrai dire, le jeu était malgré tout très beau et répondant bien au doigt et au doigt, tant et si bien qu'on peut dire que le Snop Drop Engine est un très bon moteur. Et le lancement officiel de la version finale semble se passer sans drame particulier, loin des soucis rencontrés avec Watch Dogs, Far Cry 4 ou encore Assassin's Creed Unity. bref ça faisait longtemps qu'Ubisoft n'avait pas assuré le steak de la sorte, c'est aussi à souligner quand ça marche dans ce sens.

 

Gamegpu a donc passé le jeu au crible avec ses nombreuses cartes graphiques, et sa bonne platée de processeurs. En 1080p, en qualité élevée, franchement le jeu tourne très bien puisque même une GTX 750Ti affiche 30 images par seconde de moyenne, et une HD 7850 est à 40. Dès qu'on passe la qualité sur ultra, tout le monde descend d'un cran, et on appréciera le fait que la HD 7950 soit devant la GTX 780, cette dernière étant au même niveau que la GTX 960. Kepler souffre beaucoup quand même face aux dernières architectures chez le caméléon. A chaque définition, le scénario reste globalement le même, et la Fury X se paye le luxe d'être devant la GTX 980Ti quelle que soit cette fameuse définition.

 

the division

 

Un poil avant ?

Le Chromecast de Google fait un vrai carton

Un peu plus tard ...

GIGABYTE lance la carte mère Z170 pour gamer la moins chère du marché

Les 64 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par seb4771, le Vendredi 11 Mars 2016 à 07h36  
par Un ragoteur qui aime les de Rhone-Alpes le Jeudi 10 Mars 2016 à 08h49
Plutôt EDF ... parce que l'utilité ...
Avec du tri-écrans 8k, faut au minimum 3 cartes pour le solitaire
Sinon vu comment le jeu tourne bien avec des vieux GPU, un sli sera deja largement suffisant pour du 4k (pour une fois chez UBI, un jeu qui tourne dès le début :P).
par ThePapyGeek, le Vendredi 11 Mars 2016 à 07h18  
Super jeu !
par Un adepte de zx du Languedoc-Roussillon, le Jeudi 10 Mars 2016 à 11h34  
Merci pour ta réponse Thibaut. Et en effet, personne ne dit non plus que les prochaines AMD vont pouttrer les prochaines nVidia à cause des différents supports des tiers et levels de dx12. Il faut attendre pour le savoir et se poser les bonnes questions comme par exemple:

-On peut tromper 1000 personnes 1 fois donc on peut tromper 1000 personnes 1000 fois mais on peut pas tromper 1000 fois 1 personne, non...

-Dans quelle mesure les effets exclusifs des nVidia seront disignées par ces derniers pour mal s'exécuter sur le GPU du voisin et ce qu'il en sera en pratique.

-Dans quelle mesure nVidia a intégré suffisamment tôt l'importance du multi engine des API a venir (dx12 & Vulkan) afin de proposer un support décent dans ces futurs GPU. Parce qu'on ne fait pas un GPU en 6 mois...

-Pareil pour AMD avec le 12.1, dans quelle mesure AMD mise t'il sur le 12.1 et dans combien de génération de gpu AMD ces derniers vont-ils supporter le 12.1? Les effets exclusifs d'nVidia seront-ils alors accessibles aux radéons quand elles supporteront dx12.1?

-Qui des deux concurrents proposera la meilleur expérience de VR? Serait-ce un pour chaque casque? (Facebook/nV vs Valve/AMD?)

-Y'aura t'il des boitiers accélérateurs intermédiaires sur PC du même genre que le playstation VR?
par Un ragoteur qui aime les de Rhone-Alpes, le Jeudi 10 Mars 2016 à 08h49  
par Ragotement d'Ile-de-France le Mercredi 09 Mars 2016 à 21h58
C'est ma ax1200i qui va être contente avec 3 980ti
Plutôt EDF ... parce que l'utilité ...
Message de Zoroastre supprimé par un modérateur : t assumes même pas ton bullshit
par Ragotement d'Ile-de-France, le Mercredi 09 Mars 2016 à 21h58  
par zx > bx du Languedoc-Roussillon le Mercredi 09 Mars 2016 à 20h51
"6/ Reste que je prédit qu'on trouvera des 980Ti d'occaz à 200€ avant la fin de l'année
C'est ma ax1200i qui va être contente avec 3 980ti
par UpsiloNIX, le Mercredi 09 Mars 2016 à 21h49  
par Un ragoteur barré d'Ile-de-France le Mercredi 09 Mars 2016 à 15h17
Le matos livré niveau 8 est une chose, et je partage ton avis, uniquement sur ce point. Le jeu est fluide et beau, l'ambiance est là il n'y a rien à y redire.

Alors basher ubi pour ses choix et bugs graphiques n'est pas bien difficile, basher un jeu bien léché à sa sortie est prétentieux.
Le matos de précommande livré au niveau 8 ? Non ! Il faut juste aller le chercher dans le QG au fond près du mec qui vend les récompenses. Je viens juste de le faire et j'ai eu tout au niveau 4 en arrivant après Brooklyn.

Sinon Niveau perf, avec une 980Ti MSI + I7 4790@4.5 je suis à 50-60Fps en Ultra 1440p, parfois 45 lors de grosses explosions, ... Rien de bien gênant si on a un G-Sync, c'est pas mon cas malheureusement mais je n'ai pas trop remarqué de tearing, donc à voir. Le CPU est très très chargé par contre, c'est la première fois que je vois ça en jeu (80-85% en moyenne).
par Un champion du monde embusqué, le Mercredi 09 Mars 2016 à 21h29  
Le fait de voir les générations précédentes d'nvidia tirer davantage la langue que les cartes de la même gen chez le concurrent poussera des gens parmi les 80% à changer de crèmerie. nvidia a intérêt à surveiller ça de près sous peine de se faire tailler une sale réput.
par Thibaut G., le Mercredi 09 Mars 2016 à 21h07  
sauf que le développement sur PC n'interdit pas d'implémenter des effets maisons spécifiques, et que Nvidia détient 80% du marché GPU sur PC. D'ailleurs c'est ce qu'il se passe déjà avec le VXGI, le HBAO+, le TXAA, et d'autres effets comme la physique de la flotte PhysX sur Just cause 3 par exemple. Et ce sont des jeux développés pour consoles qui ont un portage qui intègre des features impossibles à supporter par les APU des consoles. Les consoles ont une puissance très limite dès leur lancement et AMD et Nvidia ne tolèreraient pas que les jeux soient identiques sur PC.

Ensuite ce n'est pas parce que les radeon sont plus flexibles que les devs vont coder pour elles. Le marché est ce qu'il est et les forces ne sont pas du côté des rouges actuellement, seul Polaris arrivera à inverser la tendance. Donc PERSONNE ne peut dire qu'une radeon écrase une maxwell en DX12 parce qu'il y a des Async. De l'autre côté il y a les VXGI, et personnene sait quel niveau les devs utilisent. Les radeon pour mémoire sont Tier 1 à 3, tandis que les Geforce Tier 1 et 2 et DX12.1. On ne peut pas dire que d'être performant en ASync est un avantage parce que hormis les studios copains avec AMD, on ne sait pas ce que feront les autres vis à vis du caméléon et ses 80% d eparts de marché.
par zx > bx du Languedoc-Roussillon, le Mercredi 09 Mars 2016 à 20h51  
"6/ croire que les radeon grace aux async vont dégommer les masxwell c'est oublier que le VXGI va lui aussi dégommer les radeon"

Or, les consoles tournant toutes sous gpu AMD, on ne devrait pas en voir tant que ça du VXGI, comme le peu de perles qui utilisent PhysX. Après, personne ne dit que les vielles cartes AMD gardent 300% de puissance cachée non plus. On est réaliste. Reste que je prédit qu'on trouvera des 980Ti d'occaz à 200€ avant la fin de l'année
par Superubu, le Mercredi 09 Mars 2016 à 20h13  
par seb4771 le Mercredi 09 Mars 2016 à 19h12
C'est pas beau de se moquer

Oui, y'a des dx9 / 10... des indés et batman
Y'a pas Starcraft 2 non plus? Me semble que Blizzard avait volontairement bridé l'upgrade pour laisser le jeu accessible aux plus grands nombre possible de configs...
par seb4771, le Mercredi 09 Mars 2016 à 19h12  
par Un #ragoteur connecté de Rhone-Alpes le Mercredi 09 Mars 2016 à 19h00
Pourtant à ce qu'on m'a dit la HD 7970 version HBM bat même la 980 TI.

Ok j'arrête les bêtises. Est ce que aujourd'hui les jeux sont tous entièrement sous DX11 ou il y en a encore qui reste sur DX10 ou 9 ?
C'est pas beau de se moquer

Oui, y'a des dx9 / 10... des indés et batman