COMPTOIR
register

×

grid2_pixelsync.jpg

AMD : la Hawaii XTX refait surface, et la prochaine génération GCN supportera deux nouveautés
grid2_pixelsync.jpg

Voilà que des rumeurs intéressantes reviennent à la charge, avec un peu plus d'éléments à charge ! Anandtech a découvert que Synapse, une boite qui se charge d'élaborer les design AMD, a passé deux GPU au stade Tapeout, c'est à dire au stade du sample. Le premier est donné pour une surface de silicone de 350sq.mm, cette puce semble être Tonga, un Tahiti au bus 256-bit. La seconde passe à 500sq.mm, et offrira plus de 80 blocs, on pense que c'est cette dernière qui est la fameuse carte Hawaii XTX, une carte Hawaii finalement avec des fréquences supérieures aux modèles actuels. Autre fait, elle serait gravé en 28nm HPM, soit le plus haut niveau technique de ce procédé, voilà qui devrait donner du grain à moudre aux optimistes et aux sceptiques, car rien n'étant confirmé, il va falloir attendre !

 

Autre détail, la prochaine génération de cartes GCN sera compatible nativement avec l'UAV Ordering (Unordered Access View) qui ressemble dans les grandes lignes au PixelSync d'Intel. Il s'agit d'algorithmes de rendu qui sont censés répondre à une triple problématique : effets de transparence, antialiasing sur des scènes complexes et ombre de ces objets transparents mais présents dans la scène. Ce n'est pas tout, la Fast Conservative Rasterization est une amélioration hardware et pas logicielle comme l'UAV, même si elle existe depuis pas mal de temps. Son implémentation comme nouveauté au sein du GPU, à l'instar de TressFX, devrait accélérer son adoption. La rastérisation est le procédé qui convertit l'image vectorielle en image matricielle, celle affichée globalement sur l'écran. Il n'est pas dit que les GCN actuelles gèrent ces deux technologies. (Source Videocardz en partie)

 

grid2_pixelsync.jpg [cliquer pour agrandir]  

Exemple de PixelSync sur Grid 2, UAV fait la même chose, cliquez pour agrandir

Un poil avant ?

Acer se lance dans le 28 pouces UHD avec un tarif agressif

Un peu plus tard ...

Le WatchDogs Enhanced Reality Mod 3.1 est arrivé

Les 19 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui déraille embusqué, le Vendredi 18 Juillet 2014 à 12h22  
par Un ragoteur de passage de Provence-Alpes-Cote d'Azur le Jeudi 17 Juillet 2014 à 17h05
Je rebondis là dessus tiens. Pourquoi on passe tout de suite à du bi gpu et pas, comme avec les processeurs, à des gpu multi cores ? J'y panne rien certes mais ça m'interroge quand même dans mon moi profond.
Pasque qu'un coeur de GPU est conçus pour du multi-thread. Ce serait donc stupide, pour augmenter les capacités en multi-thread, de mettre 2 coeurs plutôt que de tripler le nombre de thread qu'un coeur peut gérer.
par Baba the Dw@rf, le Jeudi 17 Juillet 2014 à 20h27  
par Un ragoteur de passage de Provence-Alpes-Cote d'Azur le Jeudi 17 Juillet 2014 à 17h05
Je rebondis là dessus tiens. Pourquoi on passe tout de suite à du bi gpu et pas, comme avec les processeurs, à des gpu multi cores ? J'y panne rien certes mais ça m'interroge quand même dans mon moi profond.
Pour faire très simple, un GPU c'est déjà des dizaines (voir centaines) de coeur, beaucoup plus simple et spécialisé qu'un coeur x86 (enfin ca deviens de moins en moins "simple" tout de même) mais destiné à des calcules massivement parallèle, donc bi-gpu c'est juste mettre deux puces ensembles pour avoir plus de puissance, mais mettre deux fois plus d'unité de calculs dans les puces, c'est ce qui se passe de manière progressive au fil des générations.
par Un ragoteur qui revient de Haute-Normandie, le Jeudi 17 Juillet 2014 à 19h57  
par LePCiste le Jeudi 17 Juillet 2014 à 13h16
Le passage au ray tracing serait peut être la soluce
Un peu de LECTURE
par N² embusqué, le Jeudi 17 Juillet 2014 à 19h33  
par Armand Raynal le Jeudi 17 Juillet 2014 à 19h04
En effet, dans les GPU y'a pleins de core, meme s'ils sont tres differents de ceux des cpu.

Mais ca me fait imaginer quelque chose : Pourquoi pas mettre 2 die dans un GPU ? A la facon des Core 2 Quad ?
Pas forcement facile a mettre en oeuvre, voir meme totalement inutile, mais se serait au moins intéressant ...
Pour plomber les perfs avec les E/S entre les 2 cores, ou grossir le package et le tarif et avoir des perfs aussi aléatoires qu'en CFX/SLI ? trop puissant...
par akathriel, le Jeudi 17 Juillet 2014 à 19h23  
par Armand Raynal le Jeudi 17 Juillet 2014 à 19h04
Mais ca me fait imaginer quelque chose : Pourquoi pas mettre 2 die dans un GPU ? A la facon des Core 2 Quad ?
Pas forcement facile a mettre en oeuvre, voir meme totalement inutile, mais se serait au moins intéressant ...
C'est ce que Nvidia et AMD font depuis un moment périodiquement
par Armand Raynal, le Jeudi 17 Juillet 2014 à 19h04  
par ragoteur embusqué le Jeudi 17 Juillet 2014 à 17h10
les cartes mere bi proc existaient avant le multi coeur

puis qui te dis qu'il n'y a pas pleins de coeurs dans un gpu ?
En effet, dans les GPU y'a pleins de core, meme s'ils sont tres differents de ceux des cpu.

Mais ca me fait imaginer quelque chose : Pourquoi pas mettre 2 die dans un GPU ? A la facon des Core 2 Quad ?
Pas forcement facile a mettre en oeuvre, voir meme totalement inutile, mais se serait au moins intéressant ...
par ragoteur embusqué, le Jeudi 17 Juillet 2014 à 17h10  
par Un ragoteur de passage de Provence-Alpes-Cote d'Azur le Jeudi 17 Juillet 2014 à 17h05
Je rebondis là dessus tiens. Pourquoi on passe tout de suite à du bi gpu et pas, comme avec les processeurs, à des gpu multi cores ? J'y panne rien certes mais ça m'interroge quand même dans mon moi profond.
les cartes mere bi proc existaient avant le multi coeur

puis qui te dis qu'il n'y a pas pleins de coeurs dans un gpu ?
par Un ragoteur de passage d'Ile-de-France, le Jeudi 17 Juillet 2014 à 17h08  
par Un ragoteur de passage de Provence-Alpes-Cote d'Azur le Jeudi 17 Juillet 2014 à 17h05
Je rebondis là dessus tiens. Pourquoi on passe tout de suite à du bi gpu et pas, comme avec les processeurs, à des gpu multi cores ? J'y panne rien certes mais ça m'interroge quand même dans mon moi profond.
Parce que au dessus de certaines résolutions/ éxigences c'est la seule solution pour avoir 60FPS/Ultra et surtout les filtres
par Un ragoteur de passage de Provence-Alpes-Cote d'Azur, le Jeudi 17 Juillet 2014 à 17h05  
par Un ragoteur de passage d'Ile-de-France le Jeudi 17 Juillet 2014 à 16h31
pas question de bi gpu et autres usine à gaz de ce genre
Je rebondis là dessus tiens. Pourquoi on passe tout de suite à du bi gpu et pas, comme avec les processeurs, à des gpu multi cores ? J'y panne rien certes mais ça m'interroge quand même dans mon moi profond.
par Un ragoteur de passage d'Ile-de-France, le Jeudi 17 Juillet 2014 à 16h31  
Ouais j'y comprends rien moi à leur technique,je ne suis pas ingénieur/dévellopeur mais joueur
Et donc j'attends minimum en ce qui me concerne beaucoup de vram et du bus frontal/bande passante qui déboite puisque mon prochain achat devra afficher du 4K
Et pas question de bi gpu et autres usine à gaz de ce genre
par TheQuebecerInFrance, le Jeudi 17 Juillet 2014 à 14h54  
par Scénariste d'Half Life 3 de Luxembourg le Jeudi 17 Juillet 2014 à 13h01
Exact, la "Silicon Valley" étant nommée ainsi pour ses industries techno/informatiques et non pour le nombre d'implants en silicone par habitante/km²
Il faut admettre que c'est la Californie, la moyenne doit âtre assez élevée
par Un ragoteur anonyme embusqué, le Jeudi 17 Juillet 2014 à 13h27  
Silicon étant la traduction anglaise de Silicium...