GeForce GTX 8800
Il se trouve qu'après un certain temps, lorsque les plates-formes informatiques ont été améliorées en général de manière évolutive, la sortie de la série 8800 a fait sensation. Cette carte vidéo est largement utilisée maintenant, donc à partir de cette série, nous parlerons des accélérateurs vidéo dans le présent.
La NVIDIA GeForce 8800 peut vraiment être considérée comme la plate-forme révolutionnaire du jour. Un tel phénomène d'époque ne s'est pas vraiment produit chaque année et, en termes d'importance, il ne peut être comparé qu'à la sortie de l'architecture Intel Core, mais à la sortie de la plate-forme d'exploitation Microsoft Windows Vista.
Architecture NVIDIA GeForce 8800
Commençant à développer une nouvelle génération d'architecture 3D à l'été 2002, un certain nombre d'exigences clés ont été définies devant les ingénieurs de NVIDIA. Outre le défi classique de développer un GPU plus rapide avec une qualité d'image améliorée, la capacité à gérer les effets physiques et les calculs intensifs en virgule flottante a également été prise en compte. En parallèle, en collaboration avec Microsoft, l'objectif était de donner de nouvelles qualités aux pipelines GPU pour travailler avec les flux et la géométrie, pour déterminer les fonctions clés de la nouvelle génération de Direct X (pour Windows Vista - DirectX 10), bien sûr , en tenant compte de l'obtention de performances maximales lors de l'utilisation d'applications utilisant OpenGL hérité, DirectX 9 et des versions antérieures de DirectX.
Le résultat final du développement de l'architecture GeForce 8800 a été la sortie de deux puces : la solution haut de gamme GeForce 8800 GTX et une version plus « modeste » de la GeForce 8800 GTS. Les premiers représentants de la nouvelle architecture graphique 3D NVIDIA GeForce 8800, qui apparaîtront dans les rayons des magasins, seront des cartes vidéo basées sur la puce NVIDIA GeForce 8800 GTX, donc aujourd'hui l'histoire se racontera principalement autour de leurs fonctionnalités. Les puces GeForce 8800 GTX sont véritablement les premières solutions compatibles DirectX 10 du secteur à prendre en charge Extreme Résolution d'écran haute définition (XHD) avec des performances élevées dans les modes de fonctionnement maximum les plus « lourds ».
Un fait intéressant est à noter : l'annonce de l'architecture NVIDIA GeForce 8800 coïncide pratiquement avec la nouvelle stratégie de marché de NVIDIA, qui se tourne désormais vers la promotion de solutions de plate-forme. Cela ne signifie pas du tout que les nouveaux graphiques ne fonctionneront pas avec les chipsets d'autres sociétés, mais NVIDIA promet des résultats maximaux précisément en raison de l'utilisation de plates-formes basées sur des cartes vidéo GeForce 8800 GTX, y compris en configuration SLI, et du nouveau nForce haut de gamme Jeu de puces série 600. SLI. En même temps que les graphiques GeForce 8800, NVIDIA a annoncé le chipset nForce 680i SLI pour la plate-forme Intel, mais il ne fait aucun doute qu'au fil du temps, des solutions similaires seront présentées pour travailler avec les processeurs AMD.
L'impression la plus forte de la nouvelle architecture est peut-être la nature unifiée de ses pipelines. Tous les différends théoriques sur la possibilité ou l'impossibilité de mettre en œuvre la conception de pipelines unifiés dans un avenir prévisible se terminent aujourd'hui, car les solutions de la famille GeForce 8800 ont une puissante architecture parallèle de shaders unifiés et se composent de 128 processeurs de flux séparés et complètement indépendants avec un fréquence d'horloge jusqu'à 1,35 GHz. Chaque pipeline de processeur, à son tour, peut être réaffecté dynamiquement pour gérer les opérations de vertex, de pixel, de géométrie ou de physique, offrant ainsi un pic de ressources GPU et une flexibilité équilibrée maximale lors du traitement des tâches de shader.
Regardons le schéma bloc de la puce GeForce 8800 GTX, aujourd'hui il faut souvent revenir sur cette illustration. La conception monocœur de la GeForce 8800 GTX permet des gains de performances significatifs dans les applications d'aujourd'hui et la mise à l'échelle de certaines des opérations de shader qui seront utilisées le plus intensivement dans les futurs jeux.
Pour une explication plus claire de l'essence de l'architecture des pipelines unifiés, rappelons d'abord le principe de fonctionnement du modèle classique du pipeline impliqué dans le traitement d'un flux de données de shader avec un certain nombre d'attributs, d'indices, de commandes et de textures envoyés par le processeur central à la puce graphique. Les principales étapes du traitement - shaders de vertex et de pixels, rastérisation et écriture finale des pixels dans le tampon de trame, sont effectuées dans une séquence linéaire uniforme, tandis que les puces de classe GeForce 7 utilisent de nombreux pipelines physiques à chaque étape principale du traitement - jusqu'à 200 étapes successives du pipeline pour chaque étape de traitement du pixel shader.
Contrairement à la conception discrète classique, dans le cas de l'architecture pipeline et shader unifiée de la GeForce 8800, il devient possible de réduire considérablement le nombre d'étages de pipeline impliqués et de modifier la séquence linéaire de traitement des flux de données, la rendant plus cyclique. Ainsi, les données entrantes sont envoyées à l'entrée du module de nuanceur unifié, écrites dans les registres en tant que sortie, puis renvoyées à l'entrée du module pour exécuter l'opération de traitement suivante. Dans l'illustration ci-dessous, les pipelines classiques traitant des shaders discrets sont représentés en différentes couleurs.
Il est supposé que le nombre de modules de shaders matériels intégrés à l'architecture GeForce 8800 sera particulièrement demandé lorsque vous travaillez avec des jeux 3D DirectX 10. L'architecture sera plus efficace avec une répartition de charge équilibrée, pour un chargement efficace des puces lorsque vous travaillez sous DirectX 10. Bien sûr, l'architecture de shader unifié de la GeForce 8800 est également efficace lorsque vous travaillez avec OpenGL et DirectX 10 et versions antérieures, car il n'y a pas de restrictions ou un nombre fixe de shaders unifiés pour le traitement des shaders de pixels et de vertex avec n'importe quel modèle d'API.
Essayons de visualiser les avantages de l'architecture de shader unifiée dans l'exemple suivant. Supposons, au cours de l'action, que nous ayons besoin d'un rendu intensif de la géométrie - un traitement puissant des shaders de vertex, auquel cas les performances reposeront sur le nombre maximum de modules de vertex. Le scénario ci-dessous, qui nécessite un traitement plus complexe des effets d'éclairage sur l'eau, nécessite au contraire un travail plus intensif des pixel shaders, et ici les performances maximales seront également limitées par le nombre de processeurs de pixel shader. Dans les deux cas, on est loin du chargement complet de la puce et d'une consommation d'énergie prudente, puisqu'une partie de la puce est inactive d'une manière ou d'une autre.
Dans le cas d'une architecture de shader unifiée, non seulement l'efficacité du chargement de la puce augmente, mais également les performances dues à la redistribution complète des ressources vers la tâche actuellement requise - le traitement des shaders de pixels ou de vertex.
Les cœurs Unified Streaming Processors (SP) de la puce GeForce 8800, qui sont des processeurs à usage général pour le traitement des données à virgule flottante, peuvent traiter des effets géométriques, vertex, pixel shaders, physiques - aucune différence.
Architecture de processeur de flux unifié (SP)
Ainsi, le rêve séculaire de tous les temps et de tous les peuples - la parallélisation flexible des opérations de traitement des shaders, est résolu dans l'architecture GeForce 8800 en utilisant une variété de processeurs de flux scalaires qui traitent les flux de données entrants et génèrent des flux de sortie, qui, à leur tour, peuvent être utilisé pour un traitement ultérieur par d'autres SP. Regroupés, ces moteurs de processeur peuvent fournir une puissance de traitement parallèle impressionnante.
L'illustration ci-dessous montre clairement la conception équilibrée de l'architecture GeForce 8800, où le bloc de processeur de flux SP est combiné avec les blocs de cache, de filtrage de texture (TF) et d'adressage de texture (TA). Imaginez 128 pipelines de processeurs de streaming universels de ce type réunis en "sous-ensembles" - c'est le nombre d'entre eux dans la puce GeForce 8800 GTX.
Pourquoi une architecture scalaire ? Au début du développement de l'architecture GeForce 8800, les ingénieurs de NVIDIA ont analysé des centaines de programmes de shader et ont conclu que l'architecture vectorielle traditionnelle est moins efficace dans l'utilisation des ressources informatiques que la conception scalaire des modules de processeur, en particulier lors du traitement de shaders mixtes complexes qui combinent instructions vectorielles et scalaires. De plus, il est assez difficile d'obtenir un traitement et une compilation efficaces des calculs scalaires à l'aide de pipelines vectoriels. Malgré le fait que jusqu'à présent, la plupart des GPU modernes utilisaient principalement des unités d'exécution vectorielles - en raison du nombre prédominant d'opérations graphiques sur les données vectorielles (telles que le traitement RGBA des composants dans les pixel shaders ou la transformation géométrique des matrices 4x4 dans les vertex shaders), les opérations scalaires peuvent également être appelé tout à fait un cas typique.
Les puces graphiques vectorielles traditionnelles, à la fois de NVIDIA et d'ATI, ont une implémentation matérielle des shaders avec prise en charge de l'exécution d'instructions doubles. Ainsi, les puces ATI modernes de conception "3+1" permettent l'exécution d'une seule instruction vectorielle à 4 éléments ou d'une opération appariée à partir d'une instruction vectorielle à trois éléments et d'une instruction scalaire. Les puces des séries NVIDIA GeForce 6x et GeForce 7x prennent en charge l'exécution par paire d'instructions 3+1 et 2+2, mais elles sont également loin de l'efficacité de l'architecture GeForce 8800, qui permet de charger des modules de puces scalaires avec des instructions scalaires avec une efficacité de 100 %. A noter que le code du programme vector shader est converti en opérations scalaires directement par la puce GeForce 8800. Ainsi, en utilisant une architecture scalaire basée sur 128 modules de calcul scalaires, il est théoriquement possible d'obtenir une augmentation des performances multipliée par 2 par rapport à un système de 32 Modules de traitement vectoriel à 4 composants.
Module Lumenex - anti-aliasing, HDR et filtrage anisotrope de haute qualité
Le module NVIDIA Lumenex, implémenté dans les puces de la série GeForce 8800, porte la technologie d'anticrénelage (AA) et de filtrage anisotrope (AF) de haute qualité à un nouveau niveau. Grâce à l'utilisation d'échantillons zonaux (couverture) et géométriques, la nouvelle technologie d'anti-aliasing est appelée Coverage Sampling Antialiasing (CSAA), tout en prenant en charge quatre nouveaux modes d'anti-aliasing multi-échantillonnés CSAA pour les cartes vidéo sur un seul GPU. - 8x, 8xQ, 16x et 16xQ.
Chacun des nouveaux modes AA est activé à partir du panneau de configuration du pilote NVIDIA en sélectionnant l'option intitulée Améliorer les paramètres de l'application. Initialement, pour initialiser le fonctionnement des nouveaux modes A, vous devrez activer n'importe quel niveau d'AA dans les paramètres du jeu afin que l'application distribue et définisse correctement les paramètres des surfaces de rendu AA. Si le jeu ne prend pas en charge AA, l'utilisateur peut définir le mode Remplacer n'importe quel paramètre d'application dans le panneau de configuration du pilote NVIDIA. Cela fonctionne, mais pas dans tous les cas.
Dans de nombreux jouets, le nouveau mode 16x fournira un taux de rafraîchissement comparable au mode multi-échantillonnage 4x standard, mais avec une qualité d'image nettement supérieure. Vous trouverez ci-dessous un exemple du fonctionnement du mode CSAA 16x par rapport au multi-échantillonnage 4X AA standard.
Les puces de la série GeForce 8800 prennent en charge le processus de rendu HDR (High Dynamic Range) avec une précision de 128 bits, non seulement en mode FP16 (couleur 64 bits), mais également en mode FP32 (couleur 128 bits), qui peut être traité simultanément avec le multi-échantillonnage processus d'anticrénelage. Cela vous permet d'obtenir des effets d'éclairage réalistes et de superposer des ombres, tout en offrant une dynamique et des détails élevés dans les objets les plus sombres et les plus lumineux. La capture d'écran ci-dessous du visage du nouveau top model virtuel de NVIDIA, Adrienne Curry, est une excellente illustration du niveau de réalisme atteint lors de l'exécution du moteur NVIDIA Lumenex dans les puces GeForce 8800.
L'illustration ci-dessous montre un exemple du fonctionnement du filtrage anisotrope (AF), qui vous permet d'obtenir une plus grande clarté et netteté de divers objets situés à un angle aigu et / ou laissant en perspective. En combinaison avec la technologie de texturation trilinéaire multiple (avec une résolution changeante au fur et à mesure que vous vous éloignez, mipmapping trilinéaire), le filtrage anisotrope vous permet de réduire l'ampleur de la distorsion et de rendre l'image beaucoup plus claire. Dans l'illustration ci-dessous : à gauche - Isotropic Trilinear MipMapping, à droite - Anisotropic Trilinear MipMapping.
Il convient de rappeler que le filtrage anisotrope est très sensible à la bande passante du bus mémoire, en particulier à des niveaux AF élevés. Par exemple, le mode 16xAF signifie 16 lectures bilinéaires pour chacun des deux niveaux adjacents de texturation multiple (un total de 128 accès mémoire), compliquées par l'obtention de la texture couleur finale pixel par pixel. Les solutions basées sur les puces GeForce 8800 ont reçu une nouvelle option dans le panneau de contrôle AF appelée Angular LOD Control et ayant deux modes - Qualité et Haute Qualité. Illustration ci-dessous : GeForce 7 AF (à gauche) contre GeForce 8 avec le filtrage de texture angulaire LOD défini sur Haute qualité (à droite).
Technologie NVIDIA Quantum Effects - Effets physiques
La nouvelle technologie NVIDIA Quantum Effects vous permet de simuler et de rendre de nombreux nouveaux effets physiques avec la nouvelle génération GeForce 8800.
8800 processeurs de flux GeForce 128 GTX fournissent suffisamment de puissance en virgule flottante pour obtenir une gamme de nouveaux effets de jeu réalistes tels que la brume, le feu, les explosions ; imitation réaliste de cheveux en mouvement, de fourrure, d'eau. Bien sûr, les effets de jeu les plus intéressants avec émulation de phénomènes physiques peuvent être observés après la sortie des jeux DirectX 10.
PureVideo et PureVideo HD
La technologie NVIDIA PureVideo HD, bien connue pour toutes les cartes graphiques NVIDIA modernes, est également intégrée dans les puces GeForce 8800 et vous permet de fournir une lecture fluide et de haute qualité du contenu vidéo HD à partir de supports HD DVD et Blu-ray, avec une utilisation minimale de ressources du processeur. La technologie PureVideo HD est une solution matérielle et logicielle complète qui prend en charge les formats HDV H.264, VC-1, WMV/WMV-HD et MPEG-2 HD. De plus, les puces GeForce 8800 prennent en charge la technologie PureVideo pour travailler avec les formats WMV et MPEG-2 standard. Le contenu protégé par AACS à partir de supports Blu-ray ou HD DVD peut être lu sur des systèmes basés sur GeForce 8800 à l'aide de lecteurs compatibles AACS tels que CyberLink, InterVideo et Nero. Toutes les cartes GeForce 8800 prennent en charge la protection HDCP pour les disques Blu-ray Disc et HD DVD, ce qui vous permet de lire des vidéos protégées sur votre PC lorsque vous utilisez des écrans compatibles HDCP.
support Extreme Jeu haute définition
Toutes les cartes GeForce 8800 prennent en charge les configurations de jeu Extreme La haute définition (XHD), dans laquelle les jeux peuvent fonctionner en modes écran large jusqu'à 2560 1600 x 1080 1080, soit sept fois la qualité d'image d'un téléviseur HD 8800i et deux fois celle d'un téléviseur HD 2560p. Il convient d'ajouter à cela que la double interface DVI de la carte GeForce 1600 GTX permet d'offrir une qualité de jeu XHD avec une résolution de XNUMXxXNUMX et des FPS élevés.
Comptage de shader non lié, branchement et Early-Z
L'adressage, la récupération et le filtrage des textures prennent un certain nombre de cycles GPU, et si une texture doit être récupérée et filtrée avant que la prochaine opération de rendu ne soit effectuée dans un shader particulier, la latence de ce processus (par exemple, dans le cas de 16x AF) peut ralentir considérablement le GPU. L'architecture GeForce 8800 fournit un mode de fonctionnement économe et un mécanisme pour "cacher" la latence d'échantillonnage de texture en exécutant simultanément un certain nombre d'opérations mathématiques indépendantes. Si, dans le pipeline GeForce 7 pixels, le calcul de l'adresse de texture est entrecoupé d'opérations mathématiques de shader FP dans le module Shader Unit 1, alors le travail indépendant non lié dans les opérations de shader et de texture dans la GeForce 8800 supprime ce problème.
Un autre aspect important qui affecte directement les performances globales du système graphique, en particulier lors du traitement de shaders DX10 complexes, est l'efficacité du processus de branchement. Contrairement aux puces de la série GeForce 7, qui sont "affinées" pour traiter les shaders DirectX 9 typiques, l'architecture GeForce 8800 est conçue pour traiter les shaders DX10 complexes, tout en branchant 16 pixels (threads), dans certains cas jusqu'à 32 pixels.
Quant au Z-buffer, les puces GeForce 8800 GTX effectuent un tri des pixels à une vitesse quatre fois plus rapide que celle de la GeForce 7900 GTX, ainsi le GPU est capable de gérer toutes les situations complexes au niveau de chaque pixel. Les comparaisons Z des données sur chaque pixel sont effectuées dans le module rastériseur - ROP (opérations raster). Pour augmenter les performances, les puces GeForce 8800 prennent en charge la technologie Early-Z, qui permet de déterminer les valeurs Z des pixels avant qu'ils n'entrent dans le pipeline de pixel shader, de ce fait, les performances sont augmentées et un certain nombre d'opérations évidemment inutiles ne sont pas effectuées. Un exemple de fonctionnement Early-Z est illustré dans les figures ci-dessous.
Nous revenons au schéma fonctionnel général de la GeForce 8800 GTX, où nous considérons le module d'interface hôte, qui se compose de tampons de réception de commandes, de données de vertex et de textures envoyées pour le traitement GPU depuis le CPU via le pilote graphique. Le module suivant est un bloc assembleur d'introduction qui collecte les données de vertex des tampons et les convertit au format FP32, tout en générant un certain nombre d'identifiants en parallèle pour marquer les opérations répétées avec les vertex et les primitives.
La puce GeForce 8800 GTX comprend 128 processeurs de flux (ou simplement des processeurs de flux, des processeurs de flux, des SP), chacun étant affecté au traitement de toute opération de shader spécifique, tandis que la sortie du SP peut être redirigée vers l'entrée d'un autre processeur de flux.
Comme mentionné au début, chaque processeur de flux de la puce GeForce 8800 GTX fonctionne à une fréquence d'horloge de 1,35 GHz et prend en charge le double traitement des opérations scalaires MAD et MUL, ce qui donne au total une performance brute d'environ 520 gigaflops (milliards d'opérations FP par deuxième). En fait, il ne s'agit pas encore de performances pures, car une efficacité de 100% n'est implicite que lorsque vous travaillez uniquement avec des shaders scalaires. Cependant, le processus de traitement du code mixte scalaire et vectoriel à l'aide de la GeForce 8800 GTX présente des avantages par rapport aux GPU dotés de shaders matériels vectoriels, tout cela en raison des limitations de traitement des données ci-dessus (3 + 1, 2 + 2, etc.). Des modules de filtrage de texture, totalement indépendants des processeurs de flux et fonctionnant à la fréquence du cœur GPU (575 MHz pour la GeForce 8800 GTX), sont capables de traiter jusqu'à 64 pixels de texture par horloge (contre 24 pour la GeForce 7900 GTX), 32 pixels d'adresse de texture par horloge, 32 pixels de filtrage anisotrope 2X par horloge et 32 pixels de filtrage bilinéaire par horloge.
Le filtrage de texture bilinéaire FP16 avec GeForce 8800 est effectué à une vitesse de 32 pixels par horloge (presque 5 fois plus rapide que GeForce 7x), filtrage anisotrope FP16 2: 1 - 16 pixels par horloge. En tenant compte de la fréquence d'horloge centrale de 575 MHz, par de simples calculs, vous pouvez découvrir que la performance totale lors du calcul des texels filtrés bilinéairement et 2: 1 filtrés anisotropiquement bilinéairement sera de 575 MHz x 32 = 18,4 milliards de texels par seconde.
La puce GeForce 8800 GTX comporte six sections Raster Operation (ROP), et chaque section est capable de traiter 4 pixels (16 échantillons de sous-pixels) avec une performance totale allant jusqu'à 24 pixels par horloge avec traitement des couleurs et traitement Z. Si seul le traitement Z est effectué à l'aide de la nouvelle technologie, les performances peuvent atteindre 192 échantillons par horloge (échantillon par pixel) ou 48 pixels par horloge (anti-aliasing multi-échantillonné 4x).
Le sous-système ROP de la GeForce 8800 prend en charge l'anticrénelage adaptatif multi-échantillonné, sur-échantillonné et transparent, tandis que les nouveaux modes d'anticrénelage - 8x, 8xQ, 16x et 16xQ offrent la meilleure qualité pour les GPU modernes à puce unique.
Le sous-système ROP prend également en charge le mélange de tampon de trame avec le rendu FP16 et FP32. Jusqu'à huit textures (MRT, Multiple Render Targets) peuvent être rendues simultanément, chaque MRT peut être rendu dans différents formats de couleurs, et cette fonctionnalité est également prise en charge dans DX10.
Le point clé est le contrôleur de mémoire. Les puces GeForce 8800 GTX ont six sous-sections de contrôleur de mémoire, chacune avec une interface 64 bits, pour un total de 384 bits de largeur de bus d'interface mémoire combinée. Ainsi, 768 Mo de mémoire haute vitesse sont obtenus, tandis que la mémoire DDR1, DDR2, DDR3, GDDR3 et GDDR4 est prise en charge. Les cartes vidéo GeForce 8800 GTX sont équipées d'une mémoire GDDR3 avec une vitesse d'horloge par défaut de 900 MHz (1800 MHz DDR), qui, à une largeur d'interface de 384 bits, donne un débit allant jusqu'à 86,4 Gb / s.
Dans cet article, nous ne nous attarderons pas sur les spécifications de DirectX 10 Shader Model 4, ni sur ses différences avec DirectX 9 Shader Model 3, l'un des matériaux distincts de notre site, et très probablement plusieurs, y sera consacré. Aujourd'hui, il convient de noter que l'architecture de shader unifiée de la GeForce 8800 est entièrement compatible avec DirectX 10, et qu'elle fournit d'excellents résultats dans les jeux DirectX 9 et OpenGL modernes. Parlons brièvement des principales technologies DirectX 10 implémentées dans la GeForce 8800 aujourd'hui.
Spécifications NVIDIA GeForce 8800 GTX
Nom | GeForce GTX 8800 |
noyau | G80 |
Technologie de processus (µm) | 0.09 |
Transistors (millions) | 681 |
Fréquence centrale | 575 |
Fréquence mémoire (DDR) | 900 (1800) |
Type de bus et de mémoire | GDDR3 384 bits |
Bande passante (Gb/s) | 86,4 |
Blocs de shaders unifiés | 128 |
Fréquence des unités de shader unifiées | 1350 |
TMU par convoyeur | 32 (total) |
ROP | 24 |
textures par horloge | 32 |
textures par passe | 32 |
Modèle de nuanceur | 4.0 |
Taux de remplissage (Mpix/s) | 13800 |
Taux de remplissage (Mtex/s) | 18400 |
DirectX | 10,0 |
Anticrénelage (Max) | SS&MS - 16x |
Filtrage anisotrope (Max) | 16x |
Taille mémoire | 768 |
Interface | PCI-E |
RAMDAC | 2x400 |
Sortie de flux (Stream Output) implémenté dans la GeForce 8800 est une fonctionnalité importante de DirectX 10. Cette architecture permet aux données générées par les shaders de géométrie (ou vertex) d'être envoyées vers des mémoires tampons, puis renvoyées et chargées à l'avant du pipeline GPU pour un traitement ultérieur. .
Soit dit en passant, les shaders de géométrie DirectX 10 mentionnés précédemment pris en charge par le matériel de la GeForce 8800 sont finalement conçus pour améliorer la qualité de l'animation et le réalisme des expressions faciales, simuler des processus physiques renversés et de nombreuses autres opérations géométriques.
En général, les puces de la série GeForce 8800 en conjonction avec l'API DX10 ont un large éventail de capacités pour traiter les objets de jeu en mode batch, ainsi que pour créer des scènes massives en rendant un grand nombre d'objets dynamiques à l'aide d'un seul appel de pilote - Instancing de géométrie .
Un excellent exemple des nouvelles capacités DirectX 10 de la famille de puces graphiques GeForce 8800 est la façon dont les cheveux réalistes sont maintenant créés et animés. Le rendu des cheveux "naturels" dans le cas de DirectX 9 était principalement attribué au CPU, l'interpolation et la tessellation des points de contrôle du modèle physique étaient également attribuées au CPU. Avec DirectX 10, la modélisation physique des cheveux est laissée au GPU, tandis que l'interpolation et la tessellation des points de contrôle sont laissées au shader de géométrie.
En fait, le nouvel accélérateur 3D GeForce 8800GTX est devenu non seulement une nouvelle ère dans le domaine du traitement graphique 3D, mais aussi une nouvelle référence pour les autres composants d'un PC moderne. Le fait est que les performances des accélérateurs graphiques 3D sont chaque année de plus en plus en avance sur les performances des processeurs centraux, et cela ne peut qu'affecter les performances globales en général. Tout accélérateur 8800D puissant a besoin d'un processeur central puissant, et dans le cas de la GeForce 6700GTX, les performances du processeur central ne devaient pas être inférieures à celles du processeur haut de gamme de l'époque - l'Intel QXXNUMX, et il pouvait facilement ne suffira pas à fournir des données pour des sous-systèmes vidéo aussi puissants.
La carte vidéo GeForce 8800GTX pourrait à juste titre être qualifiée de carte vidéo unique la plus productive au monde à cette époque. Dans la plupart des applications de test, il a remporté une victoire convaincante sur un concurrent direct d'ATI et est resté longtemps la meilleure solution pour les passionnés.