COMPTOIR
  
register

Le Tegra X1 de NVIDIA roule en Audi (comme Pascal)

Le CES 2015 c'est pour cette semaine et NVIDIA aime bien se faire mousser d'entrée de jeu. C'est pourquoi Jen-Hsun Huang son CEO attaque direct avec un live stream presse pour annoncer ses nouvelles techno. Cette année ça tourne autour du nouveau Tegra et de ses applications aussi bien sur tablette, que dans le milieu automobile. On se souviendra de l'Audi qui se conduisait toute seule lors de leur keynote l'année dernière où l'on découvrait leur futur projet nommé Pascal en l'honneur de notre bien aimé rédac' chef.

 

NVIDIA Tegra X1  

 

Le Tegra X1 est la première puce en 20nm du caméléon, ce SoC se compose d'un CPU 64-bit à 8 coeurs (quatre Cortex A53 et quatre Cortex A57) et d'un GPU à 256 coeurs Maxwell. Son application sera premièrement dans des tablettes et les systèmes embarqués dans le monde de l'automobile du genre du Drive CX présenté en même temps (ça tombe bien hein ?). Cette petite puce est compatible DirectX 12, capable de faire tourner des vidéos en 4K à 60Hz avec une précision des couleurs de 10-bit, est compatibles avec les formats H.265 et VP9 et arrive à faire tourner la démo de l'Unreal Engine où des élémentaires de feu et glace se mettent sur la trogne à grands coups d'Unreal Engine, tout ça avec juste 10W de TDP. On vous épargne les graphiques montrant à quel point le Tegra X1 écrase la concurrence et double les capacités du Tegra K1 et on attend de voir si des appareils équipés de ce SoC sont prévus (avec un TDP de 10W ça risque d'être compliqué dans une tablette) et surtout à quel prix. Les plus curieux peuvent retrouver la conférence complète juste en dessous.

 

Un poil avant ?

Intel investit 24.8M de $ dans le fabricant de lunettes connectées Vuzix

Un peu plus tard ...

Un (petit) peu plus de GTX 980 Classified Kingpin

Les 24 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Kavo, le Mercredi 11 Février 2015 à 21h09  
Moi qui m'attendai à une carte graphique de forme cylindrique avec deux sphères en bas sont une castrée, je suis presque deçu que ce soit un SOC
par Un fossile de Lorraine, le Lundi 05 Janvier 2015 à 19h18  
par Un ragoteur sigma de Bretagne le Lundi 05 Janvier 2015 à 14h45
Nein. Quand tu traficotes les couleurs d'une image (filtres divers et variés, compression...) il y a des pertes et tu peux te retrouver avec des couleurs dégueulasses. Travailler sur plus de 8 bits permet de limiter les pertes.
Ce qui revient à ce que je disais... c'est la compression qu'il faut revoir, pas la taille des données avant compression (ou après les multiples traitements de la décompression).

Il est de toute façon déjà possible d'exploiter le HDR (FP) dans les algos de compression/décompression (évitant donc les artefacts), au-delà c'est un problème d'algorithme qui ne préserve pas assez de données (en terme de résolution, de continuité perceptible des données ou de détails).
par Un ragoteur foufou de Picardie, le Lundi 05 Janvier 2015 à 18h38  
Toujours aussi beau, un die à poil
par Un ragoteur "ArthaX" du Centre, le Lundi 05 Janvier 2015 à 16h41  
Un peu hors sujet, mais ça peut intéresser quelques uns d'entre nous.
On peut tester un serveur ARM Cortex-A9 pendant 30 minutes sans rien débourser.
Le Tegra X1 aurait été bien pour ce genre de serveurs, sauf que la partie GPU est trop gros. Mes collègues seront en discussion avec des fournisseurs au CES 2015, pour notre futur serveur ARM 64 bits.
@++
par Un ragoteur "ArthaX" du Centre, le Lundi 05 Janvier 2015 à 16h34  
par Baba the Dw@rf le Lundi 05 Janvier 2015 à 14h06
Je comprends pas trop le rapport entre la précision des couleurs et la résolution de l'image...
Surtout qu'avec 8 bits on est déjà largement au dela du spectre que l'oeil humain peut différencier, j'ai déjà bidouillé sur des images en modifiant les couleurs par valeur rgb et en 8bits on voit rarement la différence pour des variations de moins de 10 entre deux couleurs, autrement dit même avec 10 fois moins de couleurs (5bits a la louche donc) l'oeil humain ne verrait que peu de différence et ce sont surtout les dégrader qui perdrait en qualité, mais monter au dessus de 8 je pense que c'est plus un attrait commercial qu'autre chose...
En fait l'oeil humain normal différencie 2 millions de couleurs. Mais le vert est celui qui a spectre de couleurs le plus étendu. C'est pour ça qu'en mode 65536 couleurs le vert est codé sur 6 bits au lieu de 5 pour le rouge et le bleu.
10 bits par couleur primaire c'est encore un coup des marketeux. Mais c'est mieux que le coup du 16,2 millions à la place du 16,7 millions.
@++
par lulu-nico, le Lundi 05 Janvier 2015 à 14h49  
par Marc C. le Lundi 05 Janvier 2015 à 14h31
Oui ils devraient faire une puce à 4.5W pour les tablettes plus classiques, vu que les perfs sont 2x plus grande que le K1, la on aurait les perfs du K1 (déjà importante) pour une consommation plus raisonnable.
Oui meme pas le s810 sera au niveau du k1 au niveau gpu.
Par contre meme cette version a fréquence réduite serait trop consommatrice pour un smartphone vu qu'il faut encore rajouter un modem.
Un snapdragon haut de gamme a environ ce tdp mais avec un modem.
par Un ragoteur sigma de Bretagne, le Lundi 05 Janvier 2015 à 14h45  
par Baba the Dw@rf le Lundi 05 Janvier 2015 à 14h06
Je comprends pas trop le rapport entre la précision des couleurs et la résolution de l'image...
Surtout qu'avec 8 bits on est déjà largement au dela du spectre que l'oeil humain peut différencier, j'ai déjà bidouillé sur des images en modifiant les couleurs par valeur rgb et en 8bits on voit rarement la différence pour des variations de moins de 10 entre deux couleurs, autrement dit même avec 10 fois moins de couleurs (5bits a la louche donc) l'oeil humain ne verrait que peu de différence et ce sont surtout les dégrader qui perdrait en qualité, mais monter au dessus de 8 je pense que c'est plus un attrait commercial qu'autre chose...
Nein. Quand tu traficotes les couleurs d'une image (filtres divers et variés, compression...) il y a des pertes et tu peux te retrouver avec des couleurs dégueulasses. Travailler sur plus de 8 bits permet de limiter les pertes.
par Marc C., le Lundi 05 Janvier 2015 à 14h31  
par une tower burnée d'Ile-de-France le Lundi 05 Janvier 2015 à 13h52
nVidia fait du bon matos ARM mais avec un tdp toujours trop élevé par rapport à la "philosophie" ARM, c'est bien de faire des perfs "comme un pécé" mais si je veux des perfs à la pécé j'achète un pécé.
Oui ils devraient faire une puce à 4.5W pour les tablettes plus classiques, vu que les perfs sont 2x plus grande que le K1, la on aurait les perfs du K1 (déjà importante) pour une consommation plus raisonnable.
par Baba the Dw@rf, le Lundi 05 Janvier 2015 à 14h06  
par Activation le Lundi 05 Janvier 2015 à 11h57
2puissance10 ça fait 1024 variante par composante il y a 3 composante couleur (rgb)
Pour te dire les dvd video c'était en 8bits et déjà pas assez il aurait fallu 10, les bluray toujours pas assez idéalement il aurait fallut 11, l'ultrahd idéalement 12 et le super hi vision idéalement 13
Je comprends pas trop le rapport entre la précision des couleurs et la résolution de l'image...
Surtout qu'avec 8 bits on est déjà largement au dela du spectre que l'oeil humain peut différencier, j'ai déjà bidouillé sur des images en modifiant les couleurs par valeur rgb et en 8bits on voit rarement la différence pour des variations de moins de 10 entre deux couleurs, autrement dit même avec 10 fois moins de couleurs (5bits a la louche donc) l'oeil humain ne verrait que peu de différence et ce sont surtout les dégrader qui perdrait en qualité, mais monter au dessus de 8 je pense que c'est plus un attrait commercial qu'autre chose...
par une tower burnée d'Ile-de-France, le Lundi 05 Janvier 2015 à 13h52  
nVidia fait du bon matos ARM mais avec un tdp toujours trop élevé par rapport à la "philosophie" ARM, c'est bien de faire des perfs "comme un pécé" mais si je veux des perfs à la pécé j'achète un pécé.
par Activation, le Lundi 05 Janvier 2015 à 12h07  
par Un fossile de Lorraine le Lundi 05 Janvier 2015 à 12h03
N'importe quoi... <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />

8bits suffisent, du moment qu'on utilise pas un compresseur à pertes qui dégrade réellement la qualité vers les 5bits tout en ajoutant des artefacts.
N'ai pas une envie artistique de pondre un film en monochrome
par Activation, le Lundi 05 Janvier 2015 à 12h04  
Suite: idem le 'rec 2020' (color space) ne déboule qu'en 2017
Ne cherchez pas pourquoi on ne cesse de dire que la 4K n'est qu'un format de transition

Tout ne va se mettre vraiment en branle que pour le super hi vision en 2018/2020

La "4K" ça va surtout servir pour vendre au mieux tout ce qui peut être remasterisé jusqu'en 6K

Et vous étonnez pas de voir qu'au cinéma ils filment encore en parallèle ET en numérique ET en pélicule classique les nouveau gros block buster
Car à ce jour ils n'ont pas vraiment le matos pour filmer en '8k' en numérique de haute qualité
Donc faut encore en passer par la bonne vieille peloche qui a tout rescanneriser derrière en post prod