COMPTOIR
register

×

Du vrai Ray Tracing ? Sur portable ?

Du Ray Tracing sur des petites puces, c'est un "oui" définitif pour une startup israëlienne
Du vrai Ray Tracing ? Sur portable ?

Si les regards sont majoritairement tournés sur les grands noms de l’informatique actuelle, ces ne sont pas les seuls participants des salons dédiés à l’informatique. En effet, le CES est aussi un moyen pour les start-up moins connues de s’illustrer, comme c’est le cas d’Adshir, une firme en provenance d’Israël, qui a réussi à s’entourer de quelques articles de presse numérique grâce à leur concept alléchant : du Ray Tracing sous très fortes contraintes énergétiques, comprendre les 2 W d’une puce de téléphone portable.

 

Difficile à croire quand le top moumoute de 2019 se situe chez NVIDIA et consomme à minima 160 W pour un rendu en FullHD nécessitant la plupart du temps une mise à l’échelle par intelligence artificielle via le DLSS. Le concept se baserait sur une simplification de l’algorithme générique de lancer de rayon, baptisée Local Ray Tracing, qui aurait nécessité pas moins de sept ans de recherche et développement ! Évidemment, la technique dessous reste secrète, mais le bousin serait compatible ARM, Intel, Microsoft et Google, iOS devant attendre encore un peu. Des partenariats seraient en outre passés pour les consoles et les terminaux mobiles, mais il faudra attendre la seconde moitié de 2020 pour en savoir plus... De quoi sonner immédiatement les cloches des PlayStation et Xbox nouvelle génération, bien que cela demeure pure spéculation - voire fantaisie - à ce stade.

 

Du vrai Ray Tracing ? Sur portable ? [cliquer pour agrandir]Du Ray Tracing temps réel aurait été montré sur une GTX 1080 Max-Q lors d’une démonstration, tenant les 60 Hz constants

 

En tout cas, si l’idée s’avère bonne, nul doute du futur de l’entreprise se tracera au sein d’un plus grand groupe, comme à l’accoutumée. Hé oui, un Intel, AMD ou NVIDIA aura tôt fait de débourser les biftons nécessaires à employer la main-d’œuvre originelle du projet, mais surtout les 20 brevets concernant la méthode, bénéficiant ainsi potentiellement d’une avance technologique sur les concurrents. D’autant plus que Reuven Balakash, le fondateur d’Adshir, est déjà connu pour ses travaux ayant déjà permis de revendre deux de ses start-up à Google et Oracle. Affaire à suivre ! (Source : VentureBeat via NotebookCheck)

Un poil avant ?

ASUS prépare une version White Edition de sa Strix X570, vraiment white ?

Un peu plus tard ...

Une carte graphique fille montrée par Intel

Les 14 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un adepte de Godwin en Île-de-France, le Samedi 11 Janvier 2020 à 10h48  
par Superubu le Samedi 11 Janvier 2020 à 02h22
Faut avouer qu'au niveau R&D, Israël assure quand même pas mal. Si mes souvenirs sont bon, il me semble que toute la série des core 47XX a été élaboré par le département Intel de Tel-Aviv...Les gars semblent assez réputé pour avoir un vivier de chercheurs conséquents et efficace.
Ou juste que la technologie transite très très très facilement entre les Etats-Unis et Israel. Un peu comme ce qui s'est passé entre l'occident et la Chine.

Par contre, les Pentium M et Core lui-même ont été conçus à Haifa. Vu les choses qu'ils ont pondu, on dirait qu'Intel est plus Israelien qu'Américain.
Message de Un ragoteur sans nom du Centre-Val de Loire supprimé par un modérateur : Pas d'attaques personnelles
Message de Un vieux ragoteur du Grand Est supprimé par un modérateur : Pas d'attaques personnelles
Message de Un champion du monde en Auvergne-Rhône-Alpes supprimé par un modérateur : On évite le HS politique ici, merci
par Superubu, le Samedi 11 Janvier 2020 à 02h22  
par dfd le Vendredi 10 Janvier 2020 à 18h52
Reuven Balakash, le fondateur d'Adshir, est déjà connu pour ses travaux ayant déjà permis de revendre deux de ses start-up à Google et Oracle.

Le mec, il a dû vendre Google+ et Java : de belles réussites en effet...
(je me doute bien qu'il doit avoir les roubignoles en platine nickelé )
Faut avouer qu'au niveau R&D, Israël assure quand même pas mal. Si mes souvenirs sont bon, il me semble que toute la série des core 47XX a été élaboré par le département Intel de Tel-Aviv...Les gars semblent assez réputé pour avoir un vivier de chercheurs conséquents et efficace.
par dfd, le Vendredi 10 Janvier 2020 à 18h52  
Reuven Balakash, le fondateur d'Adshir, est déjà connu pour ses travaux ayant déjà permis de revendre deux de ses start-up à Google et Oracle.

Le mec, il a dû vendre Google+ et Java : de belles réussites en effet...
(je me doute bien qu'il doit avoir les roubignoles en platine nickelé )
par ragoteur d'Occitanie, le Vendredi 10 Janvier 2020 à 18h31  
par Jemporte le Vendredi 10 Janvier 2020 à 11h42
Serait intéressant de voir à quel point ces optimisations ne sont pas communes. AMD en aurait une, et Intel aurait déjà la sienne aussi, quand à Ampère qui aurait selon certains leaks 10 fois plus de perfs en RT, on pourrait penser qu'il en embarque une autre.
Tu tires ça d'où?
Même wccfetch qui est le site qui doit mettre en avant tous les leaks possibles n'en parle pas.
Tu nous sortirait pas une fake news par hasard?
par Un ragoteur ArthaX du Centre-Val de Loire, le Vendredi 10 Janvier 2020 à 16h30  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes le Vendredi 10 Janvier 2020 à 16h16
Pour information pour implémenter des fonctions trigonométriques on ne
fait pas appel à des fonctions linéaires mais à des développements limités.

sources:
https://fr.wikipedia.org/wiki/Fonction_lin%C3%A9aire_(analyse)
https://fr.wikipedia.org/wiki/D%C3%A9veloppement_limit%C3%A9
Ma faute, c'est du développement limité et pas les fonctions linéaires, j'ai confondu les deux termes.
Mes collègues m'ont dis qu'il y a plein d'algorithmes, mais tout dépend de la précision souhaité. Et plus on ajoute de sources de lumières, l'augmentation des calcules n'est pas LINÉAIRE mais exponentiel.
@++
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Vendredi 10 Janvier 2020 à 16h19  
par Un ragoteur ArthaX du Centre-Val de Loire le Vendredi 10 Janvier 2020 à 15h40
Si pour arriver à un résultat très proche des fonctions trigonométriques il
faut une dizaine d'itérations à 4-5 cycles, au lieu de 300 à 500 cycles de
calcules, c'est valable.
En effet, cela dépend de la convergence de la série.

 

Après si pour calculer il faut faire une puce assez complexe, ça va
chauffer. Il faut arriver à trouver un juste milieu. Mais 2W, c'est du très
simple, mais il y a eu un jeu sur Atari ST vers 1990, le jeu embarquait des
fonctions linéaires pour éviter les fonctions trigonométriques du 68000.
@++


Encore une fois pas de fonctions linéaires en trigonométrie cependant pour
des architectures matérielles ne disponsant pas de FPU tel que des
microcontrôleurs, il est fréquent de faire usage de table de valeurs
stockées en EEPROM pour obtenir un résultat plus rapide.
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Vendredi 10 Janvier 2020 à 16h16  
par Un ragoteur ArthaX du Centre-Val de Loire le Vendredi 10 Janvier 2020 à 15h40
Le RayTracing ça remonte à Newton, on ne peut pas déposer de brevets sur
du RT en lui même.
Vu la tronche des brevets délivrés par l'USPTO je ne serais pas aussi
catégorique car aux USA les patents trolls spamment allègrement le
marché américain de dépôts de concepts sans aucune réalisation technique
pour les valider sinon un vague schéma crayonné sur un coin de table.

 

Comme pour calculer le RT il faut faire appel à des fonction
trigonométriques, ça consomme beaucoup de cycles des calculateurs.
Par contre il faut arriver à des calcules de RT à base de fonctions
linéaires beaucoup moins consommatrices de cycles de calcules.


Tout cela dépend de la précision requise pour le résultat (e.g. FP32).

 

Le problème pour déposer des brevets, est que beaucoup de travaux ont été
faites sur ces fonctions linéaires qui simplifient les calcules
trigonométriques.


Pour information pour implémenter des fonctions trigonométriques on ne
fait pas appel à des fonctions linéaires mais à des développements limités.

sources:
https://fr.wikipedia.org/wiki/Fonction_lin%C3%A9aire_(analyse)
https://fr.wikipedia.org/wiki/D%C3%A9veloppement_limit%C3%A9
par Un ragoteur ArthaX du Centre-Val de Loire, le Vendredi 10 Janvier 2020 à 15h40  
Le RayTracing ça remonte à Newton, on ne peut pas déposer de brevets sur du RT en lui même.
Comme pour calculer le RT il faut faire appel à des fonction trigonométriques, ça consomme beaucoup de cycles des calculateurs.
Par contre il faut arriver à des calcules de RT à base de fonctions linéaires beaucoup moins consommatrices de cycles de calcules. Le problème pour déposer des brevets, est que beaucoup de travaux ont été faites sur ces fonctions linéaires qui simplifient les calcules trigonométriques.
Si pour arriver à un résultat très proche des fonctions trigonométriques il faut une dizaine d'itérations à 4-5 cycles, au lieu de 300 à 500 cycles de calcules, c'est valable.
Après si pour calculer il faut faire une puce assez complexe, ça va chauffer. Il faut arriver à trouver un juste milieu. Mais 2W, c'est du très simple, mais il y a eu un jeu sur Atari ST vers 1990, le jeu embarquait des fonctions linéaires pour éviter les fonctions trigonométriques du 68000.
@++
par Jemporte, le Vendredi 10 Janvier 2020 à 14h07  
par Un adepte de Godwin de Bretagne le Vendredi 10 Janvier 2020 à 11h46
ils sortent d'où tes leaks afin qu'on puisse juger de leurs crédibilité ?
nan parce que si ça vient du fond de ton slip, tu peux te les garder
Il ya qques mois. Ca même été publié ici il me semble. AMD a dit avoir un autre moyen que Nvidia pour faire du RT à moindre coût en calcul, Intel a à peu près dit la même chose concernant ses GPU, et les premières annonces Nvidia sur Ampère c'est plusieurs fois la puissance actuelle, et encore plus en RT (du coup les RT cores et IA qui prenaient la moitié du chip peut pas grossir plus mais être optimisé ).
Alors les dernières leaks pas officielles Nvidia parlent de 1.5x plus rapide en raster, mais deux fois moins de TDP. Peut-être qu'ils ont pas très peur d'AMD et Intel et donc ont réduit la puissance et vont se battre sur la conso et la taille des cartes à puissance égale...
Y'a qu'à chercher sur Google...
Et pour les méthodes d'optimiser le RT, il y en a foison depuis au moins 20 ans, que les moteurs de rendu s'y adonnent. Alors au vu de ce que la startup a réalisé, on serait plus sur de la réalisation de pilotes. Sur Nvidia RTX on est quand même dans du brut de décoffré : gros paquets d'unités de calcul dédié, qui d'après des devs sont super-mal optimisées (bande passante, cache) et un algorythme "magique" sur les unités de calcul IA qui ne serviraient autrement à rien, pour débruiter le résultat pourri à la base, parce qu'avec trop peu de rayons, puis un hybridation avec le raster, toujours par les IA, l'ensemble appelé "pompeusement" DLSS. A noter que la retrocompatibilité DX raster nécessite de reprendre toute la scène globale pour recalculer le RT avec tous les objets invisibles...