COMPTOIR
register

Un indice de plus pour le GM200 en 16nm

La semaine dernière, Thibaut vous avait relayé des rumeurs qui penchaient pour une sortie du gros GM200 chez Nvidia en 16nm en 2016. Des indices supplémentaires viennent d'apparaître sur la toile pour corroborer cette rumeur, ou du moins certaines parties. En effet, TSMC vient d'annoncer avoir commencé la phase de risk production de son procédé 16nm FinFET+ destiné aux puces complexes et gourmandes. Les GPU sont clairement visés et Nvidia a réagit officiellement à cette annonce.


Jeff Fisher de Nvidia a en effet annoncé que la collaboration entre TSMC et Nvidia durait maintenant depuis plus de 15 ans pour proposer des produits gravés avec les finesses de gravure les plus récentes. Et justement, Nvidia annonce avoir travaillé main dans la main avec TSMC sur le process 16nmFF+.

 

Ce process devrait permettre d'augmenter les performances de l'ordre de 40% par rapport au 20nm en consommant 50% d'énergie en moins. Mais Nvidia n'utilise pas (encore ?) le 20nm. Et c'est là où la rumeur revient : puisque le 16FF+ sera prêt pour une production de masse en juillet 2015, Nvidia sauterait le 20nm pour se concentrer sur le 16nm. Si cela se révèle exact, la question est maintenant de savoir si AMD compte suivre ce chemin ou proposer des puces en 20nm en attendant le 16nm. (Source : WCCFTech)

 

nvidia_new.jpg  

 

Un poil avant ?

Microsoft offre encore plus de .NET en open source, et porte l'outil sur Linux et Mac OS X

Un peu plus tard ...

Quel est l'impact d'un antivirus sur les performances de votre PC ?

Les 58 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par je hais les consoles embusqué, le Samedi 15 Novembre 2014 à 03h32  
par creep le Vendredi 14 Novembre 2014 à 21h22
perso suis sous sli GTX 970.

Même si nvidia sort des 16nm je ne sauterai pas dessus, nouveau génération= soucis en général.
C'est terre inconnue, limite je tiendrai encore une année supplémentaire qu'ils règle tout les petits soucis ( ou gros ) .

De plus je craint que la nouveauté aie un prix, et je sens qu'on vas casquer sévère, vu qu'en face ( ati ) sera lui au 20nm.
Je suis ni pro ni contre telle constructeur, au contraire j'aime quand ils se tallonne, c'est toujours une bonne chose pour le consommateur
Perso j'ai pris la 970 ( sli ) et non pas la 980 car je sais que je vais changer de carte dès le 20 nm voire le 16 nm va poindre le bout de sons nez
par je hais les consoles embusqué, le Samedi 15 Novembre 2014 à 03h29  
par Un ragoteur lambda embusqué le Vendredi 14 Novembre 2014 à 15h00
t'inquiète pas pour eux ils sont loins d'être des manchots dans les solutions graphiques, un simple exemple nvidia aura eu besoin de plus de 10 mois pour sortir un GPU (la 970) au même prix de lancement que sa concurrente directe (la 290), de même niveau de performance globale JV en 1080p, et moindre en réso supérieure, pour juste gagner 50-75W en pleine charge, mais en castrant le GPU, et donc avec une performance en double précision déplorable, une bande passante pas du tout au même niveau, n'arrive pas à suivre le scaling des AMD en solution multi carte CF/SLI, c'est un peu une 770bis.
La 970 se bat contre la R9 290X voire légèrement la 780ti et non pas la r9 290 et la 980 est seule de son coté. Mais bon 13% de perf en moins entre une 980 et 970 faut être con pour se la prendre autant OC comme un porc la 970 vu qu'elle chauffe peu, cette carte c'est l'aubaine de l'année!
par creep, le Vendredi 14 Novembre 2014 à 21h22  
perso suis sous sli GTX 970.

Même si nvidia sort des 16nm je ne sauterai pas dessus, nouveau génération= soucis en général.
C'est terre inconnue, limite je tiendrai encore une année supplémentaire qu'ils règle tout les petits soucis ( ou gros ) .

De plus je craint que la nouveauté aie un prix, et je sens qu'on vas casquer sévère, vu qu'en face ( ati ) sera lui au 20nm.
Je suis ni pro ni contre telle constructeur, au contraire j'aime quand ils se tallonne, c'est toujours une bonne chose pour le consommateur
par Un ragoteur foufou de Rhone-Alpes, le Vendredi 14 Novembre 2014 à 16h09  
Arrête de parler dans le vent, cela sera déjà pas mal.
par lulu-nico, le Vendredi 14 Novembre 2014 à 15h09  
par Un ragoteur lambda embusqué le Vendredi 14 Novembre 2014 à 15h07
Pour plus de 35% de prix en plus, encore heureux, c'est vrai que les maths c'est pas votre fort.
Je parle technique la.
Le prix vient en suite.
Niveau technique le gm204 est meilleur que hawaii.
Apres grâce au prix d'amd c'est sur que la 290x est mieux que la 980.
par Un ragoteur lambda embusqué, le Vendredi 14 Novembre 2014 à 15h07  
par lulu-nico le Vendredi 14 Novembre 2014 à 15h03
La 980 bats le 290x en performance et en conso.
Pour plus de 35% de prix en plus, encore heureux, c'est vrai que les maths c'est pas votre fort.
par lulu-nico, le Vendredi 14 Novembre 2014 à 15h03  
par Un ragoteur lambda embusqué le Vendredi 14 Novembre 2014 à 15h00
t'inquiète pas pour eux ils sont loins d'être des manchots dans les solutions graphiques, un simple exemple nvidia aura eu besoin de plus de 10 mois pour sortir un GPU (la 970) au même prix de lancement que sa concurrente directe (la 290), de même niveau de performance globale JV en 1080p, et moindre en réso supérieure, pour juste gagner 50-75W en pleine charge, mais en castrant le GPU, et donc avec une performance en double précision déplorable, une bande passante pas du tout au même niveau, n'arrive pas à suivre le scaling des AMD en solution multi carte CF/SLI, c'est un peu une 770bis.
La 980 bats le 290x en performance et en conso.
par Un ragoteur lambda embusqué, le Vendredi 14 Novembre 2014 à 15h00  
par lulu-nico le Vendredi 14 Novembre 2014 à 14h53
Je suis pour la hbm mais amd va devoir montrer a quoi ça sert autant de bande passante.
On ne connais le coût de la hbm.
Si seul amd l'utilise a cause des volumes ça sera supérieur a la gddr 5.
Je serais amd j'utiliserait la hbm mais la moins rapide possible.
Il y aura quand même une hausse de bande passante mais le coût sera diminuée.
t'inquiète pas pour eux ils sont loins d'être des manchots dans les solutions graphiques, un simple exemple nvidia aura eu besoin de plus de 10 mois pour sortir un GPU (la 970) au même prix de lancement que sa concurrente directe (la 290), de même niveau de performance globale JV en 1080p, et moindre en réso supérieure, pour juste gagner 50-75W en pleine charge, mais en castrant le GPU, et donc avec une performance en double précision déplorable, une bande passante pas du tout au même niveau, n'arrive pas à suivre le scaling des AMD en solution multi carte CF/SLI, c'est un peu une 770bis.
par Un ragoteur gaulois de Colorado, le Vendredi 14 Novembre 2014 à 14h58  
par Un ragoteur de passage embusqué le Vendredi 14 Novembre 2014 à 13h07
J'aimerais en effet avoir plus d'avis des lecteurs concernant le sujet de la news, mais bon avec une page complète de spam sli/crossfire, je doute qu'une conversation fleurisse.
c'est pas le printemps , mais bon avec toute la transpi ici ca va finir par pousser
par lulu-nico, le Vendredi 14 Novembre 2014 à 14h53  
par Un ragoteur lambda embusqué le Vendredi 14 Novembre 2014 à 14h48
le 16FF+ de TSMC n'étant pas avant mi 2016 pour les partenaires autres qu'Apple, cela va être long du côté des acheteurs nvidia face à ce qui s'annonce côté 20 nm par AMD dont le Fidji qui devrait envoyer du lourd avec une énorme bande passante, autant dire que l'on a jamais été aussi proche avec une seule carte graphique pour jouer dans des conditions correctes sur UHD 4K.
Je suis pour la hbm mais amd va devoir montrer a quoi ça sert autant de bande passante.
On ne connais le coût de la hbm.
Si seul amd l'utilise a cause des volumes ça sera supérieur a la gddr 5.
Je serais amd j'utiliserait la hbm mais la moins rapide possible.
Il y aura quand même une hausse de bande passante mais le coût sera diminuée.
par Un ragoteur lambda embusqué, le Vendredi 14 Novembre 2014 à 14h48  
le 16FF+ de TSMC n'étant pas avant mi 2016 pour les partenaires autres qu'Apple, cela va être long du côté des acheteurs nvidia face à ce qui s'annonce côté 20 nm par AMD dont le Fidji qui devrait envoyer du lourd avec une énorme bande passante, autant dire que l'on a jamais été aussi proche avec une seule carte graphique pour jouer dans des conditions correctes sur UHD 4K.
par lulu-nico, le Vendredi 14 Novembre 2014 à 14h35  
D'après toutes les dernière rumeur il y aura un dernier gros die de nvidia en 28 nm.
le 20 nm se fait trop vite remplacer par le 16 nm donc nvidia n'aura pas le temps de rentabiliser un gros die en 20 nm.
En face amd fera un die en 20 nm.
Il sera de taille comparable a tahiti donc pas énorme.
Du coup nvidia pourra concurrencer le die d'amd malgré l'avance de gravure.
Nvidia a la possibilité de faire un die de même taille qu'amd en 20 nm mais chez nvidia ce type de die n'a pas les calcul en double précision pour les cartes pro.
Hors nvidia en a besoin pour renouveler les quadro qui on une puissance de calcul en retard sur amd depuis hawaii.
Une fois le gros die de nvidia fait en 28 nm le die plus petit en 20 nm devient inutile il n'arrivera pas a faire mieux que le gros die ne 28 nm.
Le gk104 en 28 nm a fait mieux que le gf110 en 40 nm car il y a eu changement de gravure et d'architecture.
On passait de fermi a kepler.
Cette fois nvidia reste sur maxwell.