COMPTOIR
register

Intel en dit plus sur l'iGPU Gen11 d'Ice Lake

Ice Lake devrait être la prochaine évolution architecturale majeure chez Intel qui sans les déboires du 10nm aurait d'ailleurs normalement déjà pu être parmi nous, mais celle-ci pourrait finalement ne pas arriver avant 2020 en tout cas en ce qui concerne les déclinaisons Xeon sur serveur, l'arrivée du 10nm sur le segment mainstream reste encore un mystère relativement épais.

En attendant. Ice Lake-U et sa partie graphique intégrée Gen11 se baladent régulièrement sur la toile chez Sandra, Ashes of the Singularity, ou encore HWInfo. En plus du 10nm, Ice Lake devrait justement aussi introduire la première grosse évolution de l'iGPU d'Intel depuis quatre ans et déjà connue en tant que Gen11. Elle viendrait ainsi enfin pousser à la retraite la version Gen9.5 de Skylake. Il était temps, d'autant plus que la compétition d'AMD avec ses Raven Ridge équipés en Vega est bien rude !

 

intel xdc 2018 ice lake gen11 dsc 5k

 

Intel en a dit un peu plus au sujet de l'iGPU Gen11 lors de la conférence XDC 2018. La compagnie confirme ainsi le support du DisplayPort 1.4a et de la fonctionnalité DSC ou Display Stream Compression de la VESA, ce qui en retour permettra à la partie graphique intégrée d’être compatible avec des définitions jusqu'à 5120 x 2880 (5K) à 120Hz. Intel nous explique qu'une telle définition serait  impossible à gérer sans le DSC puisque cela nécessiterait une bande passante de 42,4Gbps, alors que le DisplayPort avec HB3 peut atteindre un maximum de 32,4Gbps seulement. L'avantage mis en avant pour le DSC est une compression garantie "sans perte de qualité perceptible" et permettant par exemple de réduire le besoin en bande passante d'un affichage 5K-120Hz à 14Gbps environ, largement dans les limites de la norme DisplayPort 1.4a. Ainsi, l'iGPU Gen11 devrait en théorie aussi pouvoir afficher du 8192 x 4320 à 60Hz.

 

intel xdc 2018 ice lake gen11 dsc 2

 

Bien sûr, l’intérêt d'un support de telles définitions est avant tout d'accompagner les évolutions en définition et en fréquence de rafraîchissement des appareils mobiles, ordinateurs portables et des écrans, naturellement il ne faudra pas espérer pouvoir pousser du jeu en 5K ou 8K. Malheureusement, pas un mot encore sur la présence ou non de l'adaptative sync - sous-entendue récemment par Chris Hook. (Source)

Un poil avant ?

Le 10nm plus "tôt" que prévu en 2019 chez Intel ? Mouais...

Un peu plus tard ...

Razer : un routeur Wi-Fi à prix d'or

Les 15 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Dimanche 07 Octobre 2018 à 16h14  
 

L'avantage mis en avant pour le DSC est une compression garantie "sans perte de qualité perceptible" et permettant par exemple de réduire le besoin en bande passante d'un affichage 5K-120Hz à 14Gbps environ, largement dans les limites de la norme DisplayPort 1.4a. Ainsi, l'iGPU Gen11 devrait en théorie aussi pouvoir afficher du 8192 x 4320 à 60Hz.


C'est encore une belle escroquerie de l'association de bienfaiteurs VESA qui prétend que le DSC est visuellement sans perte en massacrant l'information par un ratio de 3:1 mais dont les algorithmes de compression ne sont pas connu sinon qu'il faille adhérer à leur petite entreprise dont la tarification n'est plus publique.

Par ailleurs le DisplayPort >= 1.2 ne semble qu'un PCI-E 2.0 4x maquillé par cette agence marketing (comme Apple et son Thunderbolt) qui aurait pu se mettre à la page en proposant une version calquée sur le PCI-E 3.0 avec 8 Gbps/lane sans cette compression ridicule.

sources:

https://vesa.org/vesa-display-compression-codecs/
https://vesa.org/join-vesamemberships/
https://vesa.org/resources/faq/
par Un ragoteur avisé embusqué, le Dimanche 07 Octobre 2018 à 14h23  
le pdf c'est mieux , lol

https://xdc2018.x.org/slides/Manasi_XDC_2018_final.pdf
par dantes94, le Jeudi 04 Octobre 2018 à 16h51  
par AntiZ le Jeudi 04 Octobre 2018 à 12h05
Ca l'est déjà largement plus que G-Sync.
Je pense qu'il faisait allusion a une implémentation au sein des GPU Intel
par Un médecin des ragots en Auvergne-Rhône-Alpes, le Jeudi 04 Octobre 2018 à 15h24  
par AntiZ le Jeudi 04 Octobre 2018 à 15h09
On est sur le Comptoir du Hardware, c'était une blague de cul
Je sais, et elle était pas mal!
Pardon si je suis passé pr un rabas-joie '
par Un ragoteur macagneur en Île-de-France, le Jeudi 04 Octobre 2018 à 15h24  
Intel aurait pu s'épargner le ridicule: au lieu de parler de la partie iGPU, qui est de toutes façons redondante pour les PC (de bureau ou portables) orientés performances et/ou jeux, et qui ne fera jamais le poids chez eux, Intel devrait plutôt donner des détails sur la partie processeur, qui est celle qui compte vraiment !...
Par exemple, les vulnérabilités Meltdown et Spectre (toutes variantes) seront-elles enfin intrinsèquement corrigées (i.e. l'architecture sera-t'elle immunisée contre ces vulnérabilités, sans artifice au niveau micro-code ou OS) ?...
par AntiZ, le Jeudi 04 Octobre 2018 à 15h09  
par Xorg le Jeudi 04 Octobre 2018 à 12h32
Si on paraphrase Intel, on peut obtenir ceci : "C'est tellement gros que ça ne passe pas en DP".


C'est pas très analogique tout ça...
par Un médecin des ragots en Auvergne-Rhône-Alpes le Jeudi 04 Octobre 2018 à 13h31
En fait la compression n'est pas due à la limitation de la bande passante du DP puisqu'l aurait été possible de moins compresser en vu d'avoir une meilleure qualitance. Je pense qu'il aurait fallu avoir une puce plus complexe pour débiter les 32,4Gbps.
Par contre, annoncer du 5K à 120Hz quand il n'y a pour ainsi dire pas d'ecran 4K 120Hzz ds le commerce, ça, je pense que c'est plus pour dire "on en a une grosse qui arrive" alors qu'en fait ça sera juste une puce pourrie en terme de puissance.
A cela j'ajoute car on ne le signale jamais et ça trompe le consommateur c'est que les puces qui annoncent officiellement un affichage x (supérieur à la 2K), il faut nécessairement une carte mère avec une sortie adaptée, or, ce n'est le cas que pour les cartes mères haut de gamme. Donc vouloir mettre un CPU Intel d'entrée de gamme pour un gros affichage ce n'est pour ainsi dire pas possible puisque ça nécessite une carte mère à 150e ou plus, à ce prix, autant prendre une carte mère d'entrée de gamme comme le CPU et une véritable carte graphique (pour moins cher)
On est sur le Comptoir du Hardware, c'était une blague de cul
par Un médecin des ragots en Auvergne-Rhône-Alpes, le Jeudi 04 Octobre 2018 à 13h31  
par Xorg le Jeudi 04 Octobre 2018 à 12h32
Si on paraphrase Intel, on peut obtenir ceci : "C'est tellement gros que ça ne passe pas en DP".
En fait la compression n'est pas due à la limitation de la bande passante du DP puisqu'l aurait été possible de moins compresser en vu d'avoir une meilleure qualitance. Je pense qu'il aurait fallu avoir une puce plus complexe pour débiter les 32,4Gbps.
Par contre, annoncer du 5K à 120Hz quand il n'y a pour ainsi dire pas d'ecran 4K 120Hzz ds le commerce, ça, je pense que c'est plus pour dire "on en a une grosse qui arrive" alors qu'en fait ça sera juste une puce pourrie en terme de puissance.
A cela j'ajoute car on ne le signale jamais et ça trompe le consommateur c'est que les puces qui annoncent officiellement un affichage x (supérieur à la 2K), il faut nécessairement une carte mère avec une sortie adaptée, or, ce n'est le cas que pour les cartes mères haut de gamme. Donc vouloir mettre un CPU Intel d'entrée de gamme pour un gros affichage ce n'est pour ainsi dire pas possible puisque ça nécessite une carte mère à 150e ou plus, à ce prix, autant prendre une carte mère d'entrée de gamme comme le CPU et une véritable carte graphique (pour moins cher)
par Xorg, le Jeudi 04 Octobre 2018 à 12h32  
Si on paraphrase Intel, on peut obtenir ceci : "C'est tellement gros que ça ne passe pas en DP".
par AntiZ, le Jeudi 04 Octobre 2018 à 12h05  
Il était temps, j'ai pas le souvenir que les iGPU Intel avaient vraiment évolué depuis Haswell. Surtout quand on voit leur puissance de calcul brute qui n'a fait que stagner.

Entre Haswell et Skylake++, il n'y a eu que la fréquence qui a changé, et le type de RAM quasiment.
par Un ragoteur Gaulois en Bourgogne-Franche-Comté le Jeudi 04 Octobre 2018 à 10h39
Aucune nouvelle de l'adoption du soi-disant standard libre/ouvert/gratuit qu'est feesync ?
Ca l'est déjà largement plus que G-Sync.

Et surtout terriblement moins cher pour un meilleur résultat que cette blague propriétaire au possible.
par bmustang en Île-de-France, le Jeudi 04 Octobre 2018 à 11h47  
que de la com pour nous faire patienter ! Et au lieu de lire 'que l'on attend' vous feriez mieux d'aller là où c'est du sérieux et pas là où on veut vous amenez ! AMD a ça et bien plus à nous proposer tout de suite et rapport prix/perf excellent.
par bmustang en Île-de-France, le Jeudi 04 Octobre 2018 à 11h43  
par Un ragoteur Gaulois en Bourgogne-Franche-Comté le Jeudi 04 Octobre 2018 à 10h39
Aucune nouvelle de l'adoption du soi-disant standard libre/ouvert/gratuit qu'est feesync ?
faudrait déjà que ton standard existe ! blague
par Un ragoteur Gaulois en Bourgogne-Franche-Comté, le Jeudi 04 Octobre 2018 à 11h21  
par UpsiloNIX le Jeudi 04 Octobre 2018 à 10h52
Il suffit de lire l'article pour avoir la réponse :
C'était une question ironique...
Ça fait dans les un an que l'on attend que cela soit adopté par d'autres GPU que ceux d'AMD qui sous-entendait que c'était simple et facile.