COMPTOIR
  
register

Vulkan arrive sur MacOS et iOS, et ce n’est pas grâce à Apple

Si l'API Vulkan était une des premières API précurseurs proposant un accès bas niveau afin d'équilibrée la charge CPU/GPU, en se basant notamment sur Mantle développé par AMD, un de ses atouts réside dans son caractère multi-plateforme. Cependant, même sur les principaux OS X86, un poisson manquait à l'appel : Apple.

 

moltenvk logo

Oui, on dirait carrément le logo d'un site de streaming !

 

En effet, la firme ne propose pas de module de compatibilité avec cette API, et c'est à MoltenVK qu'a échoué cette tâche. Selon tout vraisemblance, le jeu n'est pas un priorité pour la firme à la pomme, et encore moins lorsque ce dernier passe par la participation à la conception d'un logiciel libre de droit... Le développement a donc été partagé avec Valve, qui vient d'annoncer une mise à jour de DOTA 2 dans les prochains mois afin de profiter de cette "nouvelle" technologie, les gains étant loin d'être minimes selon les résultats préliminaires. Derrière cette implémentation, on retrouvera Metal, le framework graphique propriétaire de la firme : il s'agissait donc de travaux d'adaptation et de compatibilité ; mais également de développement, notamment au niveau des debogueurs.

 

 
Il est très positif, autant pour les développeurs que pour les utilisateurs, de voir des API libres se répandre ainsi. Il est cependant certain que les solutions propriétaires telles que DirectX ont encore de beaux jours devant elles : le changement, c'est lentement !
 
Un poil avant ?

Live Twitch • Prenez le pouvoir dans Kingdom Come !

Un peu plus tard ...

EVGA CLC 120 CL11 : un AIO simple et sans grosses prétentions

Les 5 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Gry20r, le Jeudi 01 Mars 2018 à 08h31  
Apple a depuis longtemps été à la ramasse sur OpenGL, et ce meme quand il n'existait que cette API sur mac pour gérer les GPUs.
C'est encore pire depuis qu'ils implémentent leur propres API iOS/MacOS, cf la désertion de gros éditeurs sur mac.

Effectivement, le jeu n'a jamais été une prio pour Apple, meme s'ils livraient pendant un temps de bon jeux avec les macs par défaut, cependant apres avoir lu ca, ils se pourrait qu'ils aient d'autre plans :
Apple étend l'Apple TV au domaine jeux video
Mais ce serait plus un truc du genre faire tourner les jeux iOS sur MacOS je pense, d'autant que les rumeurs d'apps unifiées s'intensifient.
par Un ragoteur de transit embusqué, le Jeudi 01 Mars 2018 à 07h43  
"Je suis béotien en terme de GPU mais en quoi la démo montrée est-elle gourmande en calcul GPU ? Est-ce à cause du nombre de pixels qui changent et vont dans des directions différentes à chaque image ?"

Non c'est pas comme les codec .h 256 qui optimise le mouvement pour alléger la place prise par des vidéo la les donners sont "brut" ce qui bouffe de la puissance c'est le nombres de polygone les effets (lumière par ex) et la physique des objets (je raccourcie bien le truc mais bon)
par Un ragoteur de transit embusqué, le Mercredi 28 Février 2018 à 18h11  
par Un ragoteur qui draille embusqué le Mercredi 28 Février 2018 à 17h28
Je suis béotien en terme de GPU mais en quoi la démo montrée est-elle gourmande en calcul GPU ? Est-ce à cause du nombre de pixels qui changent et vont dans des directions différentes à chaque image ?
Chaque objet 3D composé de triangles représente un contexte dont il faut calculer les projections plan, la luminosité, etc selon les mouvements et les déformations.

Evidemment plus il existe d'objets 3D dans la scène à calculer et selon la complexité (cf. nombre de triangles) de ces objets, plus le GPU est mis à contribution.

[joke]Le domaine de la modélisation 3D va bien au delà du niveau CAP d'ajusteur-monteur. [/joke]
par UpsiloNIX, le Mercredi 28 Février 2018 à 17h39  
par Un ragoteur qui draille embusqué le Mercredi 28 Février 2018 à 17h28
Je suis béotien en terme de GPU mais en quoi la démo montrée est-elle gourmande en calcul GPU ? Est-ce à cause du nombre de pixels qui changent et vont dans des directions différentes à chaque image ?
A confirmer, mais il me semble que mouvement des objets à l'écran ne change pas grand chose au calcul du GPU, je ne crois pas qu'il y ait des optimisations du genre : je ne recalcule que ce qui a bougé (c'est difficile à mettre en place, il n'y a pas que l'objet en lui même mais tout ce qu'il y a autour qui joue).
Du coup là c'est plus le nombre d'élément à charger, la lumière et les ombres, la perspective, ... qui chargent le GPU.
Mais encore une fois, à confirmer, c'est pas vraiment mon domaine
par Un ragoteur qui draille embusqué, le Mercredi 28 Février 2018 à 17h28  
Je suis béotien en terme de GPU mais en quoi la démo montrée est-elle gourmande en calcul GPU ? Est-ce à cause du nombre de pixels qui changent et vont dans des directions différentes à chaque image ?