Pilotes, DirectX, Resizable BAR... Intel répond à quelques questions autour de ses Arc |
————— 22 Août 2022 à 12h01 —— 10117 vues
Pilotes, DirectX, Resizable BAR... Intel répond à quelques questions autour de ses Arc |
————— 22 Août 2022 à 12h01 —— 10117 vues
Le début de carrière n'est vraiment pas facile pour les premiers GPU d'Intel, qui font l'objet de très nombreuses critiques (probablement justifiées). Au fond, c'est aussi un peu normal. Une telle aventure hors du domaine de prédilection ne s'improvise pas. Concevoir un objet en laboratoire est une chose, affronter le monde réel en est une autre. En supposant que Pat Gelsinger et sa hache - qui aiment les subventions, mais moins les gouffres financiers - continuent à permettre la continuité de l'opération pour le moment, il est évident que la division AXG va devoir s'accrocher si elle veut espérer réussir. Si on peut avoir des doutes quant au gaming, on imagine que le fondeur laisserait tomber beaucoup moins facilement le segment pro, autrement plus rentable et pertinent pour lui.
Mais pour combien de temps ?
En attendant, Intel multiplie les sorties publiques pour causer Arc Alchemist et aborder certains sujets, dont certains qui ont parfois fâché. Récemment, c'est Lisa Pearce (vice-présidente et manager général du Visual Compute Group) qui est intervenue sur le blog d'Intel dans le cadre d'une session ouverte de Q&R pour parler un peu de la première génération Xe HPG, notamment de ses pilotes et de ses fonctions. En voici un extrait.
La question | La réponse traduite à la pelle et remodelée |
---|---|
Pourquoi les performances varient-elles entre les titres DX11 et DX12 avec Intel Arc ? | Les anciens API sont plus complexes et donc moins efficaces, ce qui demande beaucoup plus de taf divers et varié. La solution retenue (une émulation DX12 avec DX9on12) s'appuie sur une collaboration rapprochée avec Microsoft et continuera à être développée. On s'attend aussi à pouvoir réduire l'écart de performance entre DX11 et DX12 au fil du temps avec les nouveaux pilotes, si si. |
C'est quoi le Resizable BAR et pourquoi est-ce important pour les GPU Arc ? | (Resizable BAR pour les nuls). La mémoire de nos GPU fait de grosses transactions, du coup l'activation du ReBAR est essentielle pour qu'ils puissent s'exprimer au mieux. On recommande donc aux partenaires/constructeurs de mobales que cette fonction soit activée par défaut comme le MCE, aujourd'hui et à l'avenir. |
J'ai lu que les pilotes d'Intel n'étaient pas prêts. Où en sont-ils vraiment ? | On apprécie la rouste franche reçue des testeurs avec les premiers tests. On admet qu'on galère un peu, mais on a quand même déjà pu corriger pas mal de trucs depuis. En sus, on garde nos oreilles grandes ouvertes, tout en apprenant les leçons à retenir sur notre chemin vers le sommet. |
Qu'en est-il du support du VRR ? | Il est bien présent. Tous les GPU Arc peuvent gérer l'Adaptive Sync (à ne pas confondre avec l'AdaptiveSync), ceci inclut le FreeSync et le G-Sync Compatible, qui sont avant tout des renommages de la fonction. |
Voici pour le résumé du blabla écrit de Lisa Pearce. La version complète non profanée et en anglais de son intervention est à lire ici. Pour compléter tout ceci, en bonus, voici ci-dessous des vidéos publiées récemment par Intel Graphics sur YouTube avec Tom Petersen et Ryan Shrout, qui y abordaient déjà certains des points rediscutés l'autre jour par l'autre Lisa.
Clairement, Intel ne lâche donc pas encore l'affaire, même si elle est encore très loin d'être dans le sac. Le marketing se met en branle pour tenter de sauver ce qui peut encore l'être avec les Arc Alchemist (et accessoirement de l'image de la division AXG ?). Il n'y a plus qu'à espérer pour cette branche du fondeur (et pour nous aussi finalement, un troisième acteur digne de ce nom ne fera surement pas de mal) que l'avenir serait effectivement meilleur... Nul doute qu'il nous faudra être patient, mais à Intel aussi de tempérer ses promesses. (Source)
Un poil avant ?Au tour de GIGABYTE de dégainer son premier SSD PCIe 5.0 ! | Un peu plus tard ...Spider-Man aime les CPU, mais surtout les plus récents |