Dans la série des « projects » de grands noms de l’informatique, nous trouvons pas mal de concepts, citons par exemple l’idée de smartphone modulaire Project Athena ou encore le Project Silicon Surfer de chez Samsung. Chez Intel, le nom semble porter une toute autre signification avec le Project Amber : annoncé lors de l’Intel VisiON — oui, vous en avez encore pour au moins jusqu’à la fin de la semaine de contenu à ce sujet — ce dernier est cette fois-ci lié à la sécurité des calculs déportés de la cloud, en s’étendant dans (un peu trop ?) tous les sens au sein d’un nouveau service prenant place chez Intel.

 

intel vision 2022

 

Lorsque l’on parle de sécurité, il est usuellement question de protections, soit au niveau du matériel afin d’éviter l’introduction et la modification non autorisée de composants, soit au niveau logiciel afin de lutter contre le piratage. De ce fait, la notion de confidentialité lui semble à première vue orthogonale ; tout du moins, avant que le cloud n’entre dans la danse. En effet, depuis l’explosion de machine learning et de l’entrainement toujours plus gourmand des réseaux de neurones, la mode est au déport des calculs sur serveurs externes, citons par exemple AWS, spécialisé dans le domaine. Tout cela est bien beau, mais ce serait oublier qu’une des désignations françaises du machine learning est l’apprentissage statistique : comprenez ici que l’entraînement demande une quantité de données absolument faramineuse, a minima des dizaines de milliers d’observations individuelles.


Lorsque le but est de reconnaitre un lol-cat sur une photo de votre réseau social favori, il n’y a a priori pas de problème : les conditions d’utilisation du site les autorisent à aller goulument se servir dans leurs propres bases de données. Par contre, pour des cas d’utilisations plus sensibles (typiquement du domaine militaire ou de la santé), ces données sont d’une part difficiles à collecter, et d’autre part secrètes et régies par des lois strictes. Autant dire que les stocker en clair sur un serveur tiers est inenvisageable, quel qu’il soit : c’est là que SGX rentre en scène. Outre son incorporation dans les Blu-Ray UHD, SGX permet — et sur serveur uniquement, la taille de l’enclave étant ridiculisassent petite (de l’ordre de la centaine de mégots) sur les CPU grand public — justement de remédier au problème. Si vous vous préoccupez des attaques possibles par canal auxiliaire, pas de panique : en mode « production », les compteurs hardware sont désactivés, tout comme l’hyperthreading, histoire que même les threads voisins ne puissent obtenir d’informations sur la tâche actuellement en train de tourner.

En interne, SGX permet de chiffrer totalement les données via un système authentifié directement par Intel (et donc pas par l’hébergeur ni par l’intégrateur), sur disque comme en RAM : il s’agit du TME, pour Total Memory Encryption. Ainsi, les données ne sont déchiffrées qu’une fois rentrées dans le CPU, ce qui permet un temps d’exécution quasi natif (par contre, les aller-retour dans l’enclave sont, eux, mortels… autant dire que le temps d’initialisation de la pile logicielle est conséquent).

 

meltdown logo

En revanche, il n’a nulle part été question de Meltdown et Spectre


Un autre pan radicalement différent de l’équipe en charge du projet est le chiffrement post-quantique. Que l’on croie ou non à l’avènement futur d’un supercalculateur à base de qubits, les résultats théoriques issus de la recherche en algorithmique sont formels : les méthodes de chiffrement actuelles, basé sur des décompositions en facteurs premiers de grands nombres, seront inefficaces contre un potentiel ordinateur quantique, une menace qu’il convient de tenir en compte. La raison tient en trois mots : algorithme de Shor, capable de réaliser cette factorisation, difficile pour des ordinateurs classiques, mais bien plus simple pour un bousin quantique en jouant adroitement sur les états superposés des qubits et leur intrication.


De ce fait, une nouvelle famille de protocole de chiffrement doit voir le jour, nommé post-quantique. Actuellement, la recherche académique planche sur des équations dérivées de courbes elliptiques ; mais, entre le boulot des chercheurs et celui des industriels se trouvent souvent bien des écueils. Ainsi, ce sera au projet ambre qu’incombera la responsabilité de choisir la technologie retenue derrière ces algorithmes novateurs, et ce d’ici 2030. Au Comptoir, notre flair personnel nous souffle qu’une nouvelle extension du jeu d’instruction x86 devrait s’en charger, et, pour les CPU non compatibles, une émulation logicielle. Pour autant, il est déjà difficile de se prononcer sur l’évolution des CPU sur 3-4 ans, alors sur 10-15 ans… Qui vivra verra !


Un poil avant ?

Intel VisiON • Toujours plus de réseau bleu avec une jolie roadmap d'IPU

Un peu plus tard ...

Un pilote miracle DX11 chez AMD !

Yapa de ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !