COMPTOIR
register

Mirror's Edge Catalyst dans le test de sa beta

Le jeu de la folle bondissante vient de voir sa beta ouverte, et le temps de collecter les données et de bosser les derniers aspects du multijoueurs, Dice a décidé de repousser le jeu de deux semaines, c'est donc à partir du 9 juin que vous pourrez vous y amuser. Techniquement c'est agréable, et on reconnait le style épuré du premier opus, c'est donc un choix artistique et cohérent qu'ont fait les suédois. Après un passage sous le scalpel de Sydney Ohana et sous les ciseaux de Jacques Dessanges, la belle reprend du service, elle est toujours en colère ! En tout cas elle est en colère mais toujours classe, regardez votre chérie si elle reste impeccable après une bonne gueulante !

 

Gamegpu a fait le test de cette beta qui se termine demain, et on ne va pas réinventer la roue à chaque article de notre confrère, le protocole est toujours le même, la seule chose qui a changé récemment est la disparition des cartes Fiji, ce qui fausse un peu le rapport de force. Néanmoins, si le premier opus gérait PhysX et donc était du côté des verts, Dice est devenu entre-temps un partenaire privilégié d'AMD avec lequel il avait aidé à l'élaboration de Mantle. Affaire à suivre donc !

 

mirrors edge catalyst

 

Un poil avant ?

La Radeon Pro Duo dévoile son intimité avant son lancement

Un peu plus tard ...

Nous avons essayé • Logitech G410 Atlas Spectrum

Les 25 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par eucalyptux, le Lundi 25 Avril 2016 à 22h00  
par Un ragoteur charitable du Nord-Pas-de-Calais le Lundi 25 Avril 2016 à 21h01
La 770 n'étant qu'une révision de 680, c'est sûr qu'elle n'était pas armée pour la guerre de tranchée.
Oui mais la 280x est elle meme une 7970 Ghz, concurrente de la 680 à l'époque.
Ont peut sans doute mettre ça sur le fait qu'AMD utilise toujours la meme architecture GCN et continue donc de l'optimiser alors que Nvidia à arreté d'optimiser ( pour ne pas dire saboter ) Kepler.
par Un ragoteur charitable du Nord-Pas-de-Calais, le Lundi 25 Avril 2016 à 21h01  
par Zoroastre le Lundi 25 Avril 2016 à 15h21
Incroyable ce que se prend dans le fion la 770 par la 280x qui était pourtant sa concurrente a l'époque
La 770 n'étant qu'une révision de 680, c'est sûr qu'elle n'était pas armée pour la guerre de tranchée.
par full d'Aquitaine, le Lundi 25 Avril 2016 à 17h08  
âpre je pense que le jeux est mal opti ( bêta bla bla) car même en low c'est pas parfaitement fluide avec une gtx 770 (-60 ips donc pas parfaitement fluide + Stuttering de temps en temps)et le jeux est très moche en low
(battlefront marche nickel par contre en mid high donc c'est pas mon ring)
par Cristallix, le Lundi 25 Avril 2016 à 16h10  
par Zoroastre le Lundi 25 Avril 2016 à 15h21
Incroyable ce que se prend dans le fion la 770 par la 280x qui était pourtant sa concurrente a l'époque
M'en parle pas....

*Pars pleurer avec sa GTX 680*
par Zoroastre, le Lundi 25 Avril 2016 à 15h21  
Incroyable ce que se prend dans le fion la 770 par la 280x qui était pourtant sa concurrente a l'époque
par cabou83, le Lundi 25 Avril 2016 à 13h41  
par xvince1 le Lundi 25 Avril 2016 à 13h18
Pour le coup, on avait pas mal critiqué les 5870 avec leur bus mémoire 256bit à l'époque, mais dans l'ensemble c'est vrai qu'NV a une politique plus rationnelle qu'AMD sur la Vram. Je pense malgré tout qu'AMD utilise différemment mais correctement ses ressources, en utilisant par exemple de la Vram peu rapide sur Hawaî et en tablant directement sur le bus 512Bit.

En fait, il s'agit de stratégies industrielles différentes: NV préfère tabler sur sa division logicielle et optimiser ses pilotes en temps réel, quand AMD va tabler sur une puissance brute légèrement supérieure, mais qui sera exploitée moins finement. C'est d'ailleurs la logique derrière Mantle/Dx12/Vulkan: déplacer l'optimisation logicielle du fabricant vers les développeurs. De ce point de vue, je pense que leurs politiques se valent...
Pour la puissance des Hawaii/GK110 et GM204 4Go c'est bien, sur bus 384bits c'est 3go (pas assez) ou 6Go (trop) donc pour 4/8go faut 256bits ou 512bits, à l'époque il n'y avait pas de compresseur de donnée encore, donc 512bits basse fréquence était la meilleure solution.
Pour Fiji les 4Go sont limitant 6Go aurait était parfait comme la 980Ti mais HBM V1 oblige 4Go c'est dommage...
par xvince1, le Lundi 25 Avril 2016 à 13h18  
par cabou83 le Lundi 25 Avril 2016 à 12h27
C'est aussi du à la quantité de Vram (2go vs 3go la en l'occurrence) dans ce jeux par exemple 4go d'utilisé en full hd, donc la 290 prend l'avantage sur les 3go de la 780ti, pareil pour la 280X qui se place au niveau de la 780 car la 770 en a que 2.
Nvidia aime aussi alloué une bande passante très limite pour ses GPU, la 980 en manque légerement et la 980Ti aussi d'ou le faite qu'en 4k la Fury X rattrape la 980Ti grâce a ça bande passante énorme du à la HBM....
Pour le coup, on avait pas mal critiqué les 5870 avec leur bus mémoire 256bit à l'époque, mais dans l'ensemble c'est vrai qu'NV a une politique plus rationnelle qu'AMD sur la Vram. Je pense malgré tout qu'AMD utilise différemment mais correctement ses ressources, en utilisant par exemple de la Vram peu rapide sur Hawaî et en tablant directement sur le bus 512Bit.

En fait, il s'agit de stratégies industrielles différentes: NV préfère tabler sur sa division logicielle et optimiser ses pilotes en temps réel, quand AMD va tabler sur une puissance brute légèrement supérieure, mais qui sera exploitée moins finement. C'est d'ailleurs la logique derrière Mantle/Dx12/Vulkan: déplacer l'optimisation logicielle du fabricant vers les développeurs. De ce point de vue, je pense que leurs politiques se valent...
par cabou83, le Lundi 25 Avril 2016 à 12h27  
par NGCubeur le Lundi 25 Avril 2016 à 11h50
Après, ce n'est pas qu'un changement d'architecture. Au moment où sont sorties les 670/680, on voyait bien qu'elles étaient devant en "1080p High" mais qu'en mettant des options de porc ou un passage en résolution supérieure, elles perdaient un plus gros %age que les 7950/7970 en face. C'est le cas pour toutes les cartes nVidia depuis 7-8ans ou presque, du coup le recul des anciennes cartes avec la montée des exigences des jeux paraît logique.
C'est aussi du à la quantité de Vram (2go vs 3go la en l'occurrence) dans ce jeux par exemple 4go d'utilisé en full hd, donc la 290 prend l'avantage sur les 3go de la 780ti, pareil pour la 280X qui se place au niveau de la 780 car la 770 en a que 2.
Nvidia aime aussi alloué une bande passante très limite pour ses GPU, la 980 en manque légerement et la 980Ti aussi d'ou le faite qu'en 4k la Fury X rattrape la 980Ti grâce a ça bande passante énorme du à la HBM.
Nvidia l'a toujours fait, et AMD essaye toujours d'en donner plus à gamme équivalente forcement ça aide un peu à pérenniser leurs gamme, mais bon faut un juste milieux. Pas la peine de donner 512Go/s de bande passante à la puissance d'une HD7970 ou d'une 680 par exemple...
Je pense que les 770 à 4Go et les 780Ti à 6go doivent etre encore compétitives dans les jeux aujourd'hui mais rare sont les tests les utilisant...
par NGCubeur, le Lundi 25 Avril 2016 à 11h50  
par cabou83 le Lundi 25 Avril 2016 à 10h26
Pour moi je l'ai toujours dit GCN était supérieur à Kepler en beaucoup de point, Nvidia ce devait de changer d'architecture, le GK110 fait 600mm2 et AMD arriver a faire aussi bien avec un die a 430mm2, si Nvidia était resté sur Kepler, ils auraient pas pu concurrencer Fiji.
Maxwell a réussi à faire mieux et pour moi (et beaucoup d'autres) c'est la meilleure architecture pour les jeux DX11, pour DX12 un peu moins rien de catastrophique mais GCN reprend de l'avance et égalise. Je pense que c'est un bon choix Maxwell cette archi est sortie au bon moment (car peu de jeux DX12).
Donc que AMD reste sur GCN, surtout pour les optimisation conjointe entre les console et GPU pc, c'est un bon choix je pense (surtout au niveau des finances AMD peut pas trop se permettre de folies) par contre pour Nvidia la nécessité de passer à autre chose que Kepler était presque indispensable...
Après, ce n'est pas qu'un changement d'architecture. Au moment où sont sorties les 670/680, on voyait bien qu'elles étaient devant en "1080p High" mais qu'en mettant des options de porc ou un passage en résolution supérieure, elles perdaient un plus gros %age que les 7950/7970 en face. C'est le cas pour toutes les cartes nVidia depuis 7-8ans ou presque, du coup le recul des anciennes cartes avec la montée des exigences des jeux paraît logique.
par TRGNN, le Lundi 25 Avril 2016 à 11h32  
par 123 le Lundi 25 Avril 2016 à 10h45
cette beta tourne tres mal comparé a un BF3 ou 4 et techniquement ca casse pas trois pattes a un canard j'ai du y "jouer" a peine 15 min ...
Beta ?
par 123, le Lundi 25 Avril 2016 à 10h45  
cette beta tourne tres mal comparé a un BF3 ou 4 et techniquement ca casse pas trois pattes a un canard j'ai du y "jouer" a peine 15 min ...
par TRGNN, le Lundi 25 Avril 2016 à 10h32  
par xvince1 le Lundi 25 Avril 2016 à 10h11
Ton analyse devrait t'interpeler au final: En dehors de l'aspect énergétique, quel est l'intérêt de changer d'architecture si c'est pour être toujours en lutte au niveau perfs avec des puces d'ancienne génération ? Perso, je suis plutôt satisfais de voir le travail de support sur une ancienne génération
. Je n'aime pas spécialement changer pour changer...
Pareil.