COMPTOIR
register

Outcast est-il encore un tueur de CPU 15 ans après sa sortie ?

En juin 1999 sortait un jeu édité par Infogrames nommé Outcast. Le succès fut mitigé et pourtant le jeu bénéficiait d'un monde cohérent, d'une ambiance énorme, et d'une histoire sympathique. Cependant, il tournait en voxels, c'est à dire que c'est le processeur central qui se paluchait tous les calculs, les cartes graphiques de l'époque ne gérant pas le voxel. Du coup, on avait un monde détaillé, mais qui tournait en petite définition 512x384, ce qui la foutait mal à ce moment où les accélérateurs 3D devenaient bien puissants avec les TNT2 et autres Voodoo 3.

 

Récemment il y a eu une campagne Kickstarter au mois d'avril 2014 qui s'est achevée en mai 2014, le financement a atteint 268k $ et il en fallait 600k pour être budgetisé, c'est donc foutu pour le projet Outcast HD Reboot. Il y a aussi Open Outcast, un mod qui mouline avec le Cry Engine, et qui est développé à partir de Crysis War. Bref on reparle de ce jeu en ce jour/nuit puisque PCGH s'est posé une question amusante : est-ce que Outcast serait aujourd'hui un tueur de CPU comme il le fut en son temps ? Le jeu a été patché en version 1.1, et c'est en Full HD qu'il a été passé à la moulinette. On peut en tirer deux conclusions : l'hyperthreading apporte un petit peu, et les Phenom II ont une IPC qui les sauve face aux FX.

 

outcast.jpg  

 

Le Performance Test atemporel chez les germains

Un poil avant ?

C'est NoNoëëëëëëël !!!

Un peu plus tard ...

Le 34" 21:9 1440p incurvé de Dell serait moins cher que prévu

Les 44 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille de Lorraine, le Mardi 30 Décembre 2014 à 12h10  
par Thibaut G. le Lundi 29 Décembre 2014 à 14h38
euh, non, la première fois que le terme GPU a été utilisé, c'est NV qui l' a créé à la sortie de la GeForce 256.
Le terme oui, mais j'ai étendu la notion à tous les processeurs 2D/3D pas trop castrés (Virge, Rage II et Matrox exclus donc). J'ai par contre fait une erreur avec le TNT, puisque si j'ai bonne mémoire c'était le Riva128 qui a commencé à faire connaître NV.

Le GPU actuel n'a déjà plus grand chose à voir avec l'ère DX9 (début du début de l'ère du coprocesseur massivement parallèle) et même le GF256 était finalement plus proche de ses prédécesseurs que des GPU DX9.
par Thibaut G., le Lundi 29 Décembre 2014 à 20h23  
pas de sushi
par Un ragoteur qui se tâte embusqué, le Lundi 29 Décembre 2014 à 20h19  
par Thibaut G. le Lundi 29 Décembre 2014 à 14h38
euh, non, la première fois que le terme GPU a été utilisé, c'est NV qui l' a créé à la sortie de la GeForce 256.
Tout à fait. Autant pour moi. Le T&L était à la naissance des gpus même si les vrais gpus complets furent ceux incluant les pixel et vertex shader. Cela reste quand même après l'introduction du 32 bits avec la tnt.
par Thibaut G., le Lundi 29 Décembre 2014 à 14h38  
euh, non, la première fois que le terme GPU a été utilisé, c'est NV qui l' a créé à la sortie de la GeForce 256.
par Un ragoteur qui se tâte embusqué, le Lundi 29 Décembre 2014 à 14h26  
par Un fossile de Lorraine le Lundi 29 Décembre 2014 à 11h08
Et toi, va falloir que tu arrêtes de lire comme ça t'arrange...
Va falloir apprendre à écrire alors.
par Un fossile de Lorraine le Lundi 29 Décembre 2014 à 11h08
Le MMX, c'était un jeu d'instructions MULTIMEDIA, pas 3D.

Et la 3d ça fait pas partie du multimédia? Belle blague.
Le MMx était mis en avant pour la 3D. Je t'invite à relire la presse de l'époque et les articles. Si POd a été le premier soft MMX mis en avant, c'est pas pour rien.
 

Les GPU ont commencé à devenir incontournables réellement avec les TNT/Rage Pro (on ne montait plus un PC sans carte 2D/3D)

Faux. LEs gpus n'existent que depuis le geforce 3. Avant on parlait de carte graphique car les gpus n'existaient pas.

 

et à l'époque 1- on ne cherchait pas à accélérer ça côté CPU

Cela ne veut rien dire vu que les cartes graphiques existent justement pour remplacer le cpu pour certains calculs.

 

et 2- on travaillait le plus souvent en 16bits dans les quelques jeux 3D accélérés (et 256 couleurs dans les autres), faute de VRAM.

Oui et alors? Ce que tu as dit était faux vu que le mode 32bits existe depuis la tnt 1.
Faux aussi car quand la tnt 1 est apparu, la quasi totalité des jeux 3d étaient accélérés 3D.

Tu devrais aller relire car ta mémoire est sacrément défaillante
par Un fossile de Lorraine, le Lundi 29 Décembre 2014 à 11h08  
par Un ragoteur qui se tâte embusqué le Samedi 27 Décembre 2014 à 19h44
Encore faux. Les modes 24bits et 32bits sont apparus sur la TNT et utilisé abandamment dès la tnt2 et geforce 1 alors que le premier gpu date de la geforce 3.

Tu as un sérieux problème de compréhension ou d'oubli. Il va falloir te documenter d'urgence.
Et toi, va falloir que tu arrêtes de lire comme ça t'arrange...

Le MMX, c'était un jeu d'instructions MULTIMEDIA, pas 3D. Les GPU ont commencé à devenir incontournables réellement avec les TNT/Rage Pro (on ne montait plus un PC sans carte 2D/3D) et à l'époque 1- on ne cherchait pas à accélérer ça côté CPU et 2- on travaillait le plus souvent en 16bits dans les quelques jeux 3D accélérés (et 256 couleurs dans les autres), faute de VRAM.
par Un ragoteur qui se tâte embusqué, le Samedi 27 Décembre 2014 à 19h44  
par Un fossile de Lorraine le Samedi 27 Décembre 2014 à 14h35
C'est pas nouveau que le MMX ne travaille que sur les entiers, il avait été sorti pour ça, à une époque où le HDR était une notion graphique inconnue et où on travaillait rarement avec une profondeur de couleurs de 24bits, sans même parler du 32bits, mode qui n'est arrivé que quand les GPU ont commencé à devenir incontournables.
Faux encore.
Que vient faire le HDR là dedans? Tu mélanges tout. Utiliser les flottants ça date pas du HDR, quake fut un des tout premiers moteur 3d à le faire. S'il y avait encore eu que l'absence d'utilisation des flottants, cela aurait pu passer mais le mmx 1 fut perclu de problèmes.
par Un fossile de Lorraine le Samedi 27 Décembre 2014 à 14h35
où on travaillait rarement avec une profondeur de couleurs de 24bits, sans même parler du 32bits, mode qui n'est arrivé que quand les GPU ont commencé à devenir incontournables.
Encore faux. Les modes 24bits et 32bits sont apparus sur la TNT et utilisé abandamment dès la tnt2 et geforce 1 alors que le premier gpu date de la geforce 3.

Tu as un sérieux problème de compréhension ou d'oubli. Il va falloir te documenter d'urgence.
par Un ragoteur qui se tâte embusqué, le Samedi 27 Décembre 2014 à 19h40  
par Un fossile de Lorraine le Samedi 27 Décembre 2014 à 14h35
Entre 3.1M en 800nm et 4.5M transistors en 350nm, la différence est comparable à celle entre Sandy et Haswell en même temps, donc...

Pour avoir possédé des Pentium 75/133/200 mais aucun MMX (qui avaient d'ailleurs le L1 doublé ), je peux confirmer qu'il y avait déjà au moins 2 générations là.
Faux, tu mélanges différents concepts. Génération ça ne veut pas dire différence de gravure sinon un ivy bridge ne serait pas de la même géné qu'un sandy bridge.
Chez intel les générations avaient leur nom de code, 8086/80286/80386/804886/pentium1 ( aliasp5), pentium pro alias p6 etc...
Changer de gravure ou modifier le cpu pour le faire évoluer ne le fait pas changer de génération sinon entre un 386sx16 et un 386dx44 ce ne serait pas la même géné. Or pourtant c'est la même.

par Un fossile de Lorraine, le Samedi 27 Décembre 2014 à 14h35  
Entre 3.1M en 800nm et 4.5M transistors en 350nm, la différence est comparable à celle entre Sandy et Haswell en même temps, donc...

Pour avoir possédé des Pentium 75/133/200 mais aucun MMX (qui avaient d'ailleurs le L1 doublé ), je peux confirmer qu'il y avait déjà au moins 2 générations là.

C'est pas nouveau que le MMX ne travaille que sur les entiers, il avait été sorti pour ça, à une époque où le HDR était une notion graphique inconnue et où on travaillait rarement avec une profondeur de couleurs de 24bits, sans même parler du 32bits, mode qui n'est arrivé que quand les GPU ont commencé à devenir incontournables.
par Un ragoteur qui se tâte embusqué, le Samedi 27 Décembre 2014 à 09h14  
par Un fossile de Lorraine le Vendredi 26 Décembre 2014 à 21h12
Le MMX c'était déjà la 3e génération de Pentium... 4e pour ainsi dire.

Les 60/66 (800nm) qui avaient leur Socket 4, puis les 75-120 (600nm) sur Socket 5 et 133-200 (350nm) sur Socket 7 (puissance revue à la hausse comme seule différence), c'est seulement là que le MMX est arrivé avec le Socket 7 "split plane", ce qui permet d'ailleurs de bien constater l'évolutivité franchement limitée déjà à l'époque...
.
Tu te trompes sur le mot génération. Les pentium 60/66, 90, 120/133/166 c'est la même génération. Ce n'est pas un changement de gravure ou de socket qui change la génération.
A la rigueur on peut classer les p60 et 66 à part car ils n'avaient pas tout des avantages du pentium.
Le MMX est arrivé dès la première génération du pentium en 1997 (janvier) mais il ne marchait que sur entier et pas flottant. Il a fait un bide chez les joueurs vu qu'en face sortait les premières cartes 3d vraiment performantes (3dfx voodoo 1).
POd fut le premier jeu MMX à montrer que la version carte 3D apportait largement plus que MMX.
par KarLKoX, le Samedi 27 Décembre 2014 à 08h30  
par Un ragoteur foufou embusqué le Vendredi 26 Décembre 2014 à 13h23
faux je crois si mes souvenir sont bon que on utilisé le FPU des proco via les instructions MMX
Euh, pas du tout et au contraire : l'utilisation du MMX empêchais l'utilisation de la FPU.
D'ailleurs, le switch de l'un à l'autre étais tellement lent que beaucoup ont préféré continuer à utiliser la FPU (pourtant lente, historiquement).
par Un ragoteur qui revient embusqué, le Samedi 27 Décembre 2014 à 00h25  
Ahhh infogrames... l'inventeur du survival horror. Ca rappelle de bons souvenirs même s'ils ont sorti plus de bouses que de bons jeux