jeugpu     Rechercher trouver 4120

 tg2 f2 lin2 in2 Icône X 3 y2  p2 Tik vapeur2

Une brève histoire des cartes vidéo et des fabricants: du début à nos jours

Cartes vidéo - les composants clés du monde de l'infographie, responsables du traitement et de l'affichage des images sur l'écran. Leur histoire remonte à plusieurs décennies, et pendant ce temps, la technologie des cartes vidéo a évolué de simples affichages de texte à des appareils hautes performances capables de traiter des objets tridimensionnels et des milliards de couleurs. Dans cet article, nous examinons le développement des cartes vidéo et des fabricants depuis le tout début jusqu'à nos jours, en prêtant attention aux générations concurrentes de cartes vidéo.

Premières années: années 1970 à 1980

Les premières cartes vidéo sont apparues dans les années 1970 et étaient conçues pour afficher des informations textuelles. L'un des premiers fabricants a été IBM, qui a lancé la carte graphique IBM Monochrome Display Adapter (MDA) en 1981, conçue pour afficher du texte monochrome.

Adaptateur d'affichage monochrome IBM

Avec le développement de l'infographie dans les années 1980, les premières cartes vidéo graphiques sont apparues. IBM a lancé l'adaptateur graphique couleur (CGA) en 1981, qui prenait en charge 320 x 200 pixels et jusqu'à 16 couleurs. Cela a été suivi par l'adaptateur graphique amélioré (EGA) en 1984, qui offrait une résolution de 640x350 pixels et 16 couleurs à partir d'une palette de 64 couleurs. Ces cartes supportaient des résolutions basses et un nombre limité de couleurs, mais elles ont lancé l'industrie des cartes graphiques.

Réseau graphique vidéo

En 1987, IBM a introduit le Video Graphics Array (VGA), qui est devenu la norme en matière d'infographie pendant de nombreuses années. VGA prenait en charge des résolutions jusqu'à 640 x 480 pixels, 256 couleurs simultanément à partir d'une palette de 262 144 couleurs et fournissait un lissage d'image matériel.

Années 1990 : Montée des graphismes 3D, naissance des géants et effondrement du 3DFX

Les années 1990 ont vu une révolution dans les cartes vidéo. A cette époque apparaissent les premiers accélérateurs 3D qui permettent de restituer en temps réel des graphismes tridimensionnels. Cela a conduit au développement de jeux informatiques XNUMXD et à un saut qualitatif dans le domaine de la visualisation.

Les premières cartes vidéo prenant en charge DirectX sont sorties au milieu des années 90. À cette époque, la technologie graphique 3D commençait tout juste à se développer et le marché des cartes graphiques était dominé par 3DFX Interactive.

Graphiques vaudous

3DFX était l'un des leaders sur le marché des cartes graphiques au milieu des années 1990, et son produit Voodoo Graphics est devenu la norme pour les graphiques 3D à l'époque. En 1996, Voodoo Graphics offrait au consommateur une accélération matérielle 3D et une prise en charge de l'API Glide. Le succès de XNUMXDFX a été de fournir des performances et une qualité d'image élevées dans les jeux, ce qui a entraîné la croissance rapide de la popularité de l'entreprise.

À cette époque, il existait de nombreux fabricants de cartes vidéo sur le marché, mais les plus importants d'entre eux étaient NVIDIA et ATI Technologies. Chacune des entreprises cherchait à proposer des produits meilleurs que ses concurrents et supportait DirectX 7.

À la fin des années 90, ils sont entrés sur le marché et sont devenus les principaux concurrents de 3DFX. La première génération de cartes graphiques DirectX 7 comprenait les cartes NVIDIA Riva TNT et ATI Rage 128. La Riva TNT est sortie en 1998 et comportait un GPU TNT avec 16 Mo de mémoire et un bus mémoire 128 bits. L'ATI Rage 128 est sorti en 1999 et comportait le GPU Rage 128 avec 16 Mo de mémoire et un bus mémoire 128 bits. Les deux cartes vidéo étaient compétitives avec 3DFX, mais n'avaient pas la même popularité.

GeForce 256

La deuxième génération de cartes graphiques DirectX 7 comprenait NVIDIA GeForce et ATI Radeon. La GeForce est sortie en 1999 et comportait un GPU GeForce 256 avec 32 à 64 Mo de mémoire et un bus mémoire 128 bits. L'ATI Radeon est sortie en 2000 et comportait un processeur graphique Radeon DDR avec 32 à 64 Mo de mémoire et un bus mémoire 128 bits. La GeForce était plus rapide que l'ATI Radeon et avait une architecture plus avancée qui offrait de meilleures performances de jeu.

Radeon DDR

Après la sortie de Voodoo2 en 1998, 3DFX a dû faire face à une concurrence féroce de NVIDIA et ATI. Cela a entraîné une détérioration de la situation financière de l'entreprise qui, à son tour, a entraîné une réduction des investissements en recherche et développement. Finalement, 3DFX a été racheté par NVIDIA en 2000.

DirectX 8 était une version importante de la plate-forme logicielle DirectX qui a été publiée en 2000 et a été conçue pour exécuter des applications utilisant des graphiques 3D sur des ordinateurs exécutant des systèmes d'exploitation Windows ME.

La première génération de cartes graphiques DirectX 8 comprenait la NVIDIA GeForce 3 et l'ATI Radeon 8500. La GeForce 3 comportait un processeur graphique NV20 avec 57 millions de transistors. Il avait 128 Mo de mémoire DDR, un bus mémoire 128 bits et 480 processeurs de flux.

L'ATI Radeon 8500 est sortie en 2001 et comportait un GPU R200 avec des transistors 60M. Il avait 64 Mo de mémoire DDR, un bus mémoire 128 bits et 250 processeurs de flux. La GeForce 3 était plus rapide que la Radeon 8500 et présentait une architecture plus avancée qui offrait de meilleures performances de jeu.

La deuxième génération de cartes graphiques DirectX 8 comprenait la NVIDIA GeForce 4 et l'ATI Radeon 9000. La GeForce 4 comportait un processeur graphique NV25 avec 63 millions de transistors. Il disposait de 64 à 128 Mo de mémoire DDR, d'un bus mémoire 128 bits et de 300 à 460 processeurs de flux.

L'ATI Radeon 9000 est sortie en 2002 et comportait un GPU RV250 avec 29 millions de transistors. Il avait 64 à 128 Mo de mémoire DDR, un bus mémoire 128 bits et 200 processeurs de flux. La GeForce 4 était plus rapide que la Radeon 9000 et offrait de meilleures performances de jeu, en particulier les jeux qui utilisaient des fonctionnalités telles que les ombres et des effets plus complexes.

S3 Graphics a également lancé de nouvelles cartes graphiques DeltaChrome qui prenaient en charge DirectX 8 et étaient relativement rapides et abordables. Cependant, 3dfx et Matrox n'étaient pas en mesure de proposer des produits compétitifs dans ce domaine.

Années 2000 : concurrence, innovation et productivité

L'une des principales percées technologiques de l'ère des années 2000 a été l'introduction de logiciels de vertex et de pixel shaders. Ces technologies ont permis la création d'effets d'éclairage, d'ombre et de matière plus complexes et réalistes qui ont considérablement amélioré l'expérience visuelle des jeux informatiques et d'autres applications graphiques.

En 2002, Microsoft a publié une nouvelle version de sa plate-forme logicielle DirectX 9, conçue pour exécuter des applications utilisant des graphiques 3D sur des ordinateurs exécutant des systèmes d'exploitation Windows.

La première génération de cartes vidéo DirectX 9 a été introduite en 2002. NVIDIA a lancé la GeForce FX, y compris les modèles 5800, 5600 et 5200. Les cartes comportaient la nouvelle architecture NV30 et des technologies prises en charge telles que NVIDIA CineFX pour des graphismes 3D réalistes et NVIDIA Intellisample pour une qualité d'image améliorée. Cependant, ces cartes n'ont pas eu beaucoup de succès car elles étaient chères et n'avaient pas de performances compétitives par rapport aux modèles et concurrents précédents de NVIDIA.

ATI Technologies a lancé la Radeon 9700, qui était équipée de la nouvelle architecture R300 et de technologies prises en charge telles que ATI SmartShader, qui permettait des graphismes 3D réalistes, et ATI SmoothVision, qui améliorait la qualité de l'image. La Radeon 9700 était 20 à 25 % plus rapide que la GeForce FX 5800 et est devenue la carte graphique la plus rapide du marché.

La deuxième génération de cartes graphiques DirectX 9 a été introduite en 2003. NVIDIA a lancé la GeForce 6, y compris les modèles 6800, 6600 et 6200. Les cartes comportaient la nouvelle architecture NV40 et des technologies prises en charge telles que NVIDIA PureVideo, qui permettait de visualiser des vidéos haute résolution sur la carte graphique, et NVIDIA TurboCache, qui augmenté la capacité de la mémoire de la carte graphique. La GeForce 6800 était 50 à 60 % plus rapide que la GeForce FX 5950 et est devenue la carte graphique la plus rapide du marché.

ATI Technologies a lancé la Radeon X800, qui présentait la nouvelle architecture R420 et des technologies prises en charge telles que ATI 3Dc, qui améliorait les détails de texture, et ATI OverDrive, qui permettait d'overclocker la carte graphique. La Radeon X800 était 20 à 30 % plus lente que la GeForce 6800 mais restait compétitive.

La troisième génération de cartes vidéo DirectX 9 a été introduite en 2004. NVIDIA a lancé la GeForce 7, y compris les modèles 7800, 7600 et 7300. Les cartes comportaient la nouvelle architecture G70 et des technologies prises en charge telles que NVIDIA SLI, qui permettait à plusieurs cartes graphiques d'augmenter les performances, et NVIDIA PureVideo HD, qui permettait la haute définition. vidéo à visionner via des cartes vidéo. La GeForce 7800 était 20 à 30 % plus rapide que la GeForce 6800 et est devenue la carte graphique la plus rapide du marché.

ATI Technologies a sorti la Radeon X1000, y compris les modèles X1800, X1600 et X1300. Les cartes comportaient la nouvelle architecture R500 et des technologies prises en charge telles que ATI CrossFire qui permettait à plusieurs cartes graphiques d'augmenter les performances et ATI Avivo qui améliorait la qualité de l'image. La Radeon X1800 était 10 à 20 % plus lente que la GeForce 7800 mais restait compétitive.
L'ATI Radeon X1900 est sortie en 2006 et comportait l'architecture R580. Cette carte vidéo était 5 à 10 % plus rapide que la Radeon X1800 et a été la première carte vidéo à prendre en charge la nouvelle norme PCI Express 3.0 x16. La Radeon X1900 était également compétitive avec la GeForce 7900.

Toujours en 2006, la NVIDIA GeForce 7900 GX2 est sortie. Cette carte vidéo a été la première carte vidéo double cœur au monde, combinant deux GPU en un et atteignant des performances très élevées. La GeForce 7900 GX2 était équipée de deux cœurs G71 et de 1 Go de mémoire GDDR3, avait un bus mémoire de 512 bits et était 30 à 40 % plus rapide que la GeForce 7900 GTX. Cependant, en raison des limites de prise en charge des pilotes et des applications, la GeForce 7900 GX2 n'a pas toujours été le meilleur choix pour les jeux. Néanmoins, cette carte vidéo a été une étape importante dans le développement de la technologie d'accélération graphique multiprocesseur et a influencé le développement futur des cartes vidéo.

Milieu des années 2000 : architecture de carte vidéo unifiée

Au milieu des années 2000, NVIDIA et ATI/AMD ont commencé à s'orienter vers des architectures de cartes vidéo unifiées qui combinaient les shaders de vertex et de pixels dans des unités de calcul communes. Cela a permis aux cartes graphiques de répartir la charge de calcul de manière plus flexible, améliorant ainsi les performances globales. Il est également devenu possible d'utiliser le multithreading pour le traitement graphique, ce qui a également contribué à une augmentation des performances.

DirectX 10 est sorti en 2006 et a été conçu pour exécuter des applications utilisant des graphiques 3D sur des ordinateurs exécutant les systèmes d'exploitation Windows Vista et Windows 7.

La première génération de cartes vidéo prenant en charge Direct X 10 a été introduite en 2006. NVIDIA a lancé une série de cartes graphiques GeForce 8, notamment les modèles 8800 GTX, 8800 GTS, 8600 GT et 8500 GT. Ces cartes comportaient la nouvelle architecture G80 et prenaient en charge de nouvelles technologies telles que NVIDIA SLI, qui permettaient à plusieurs cartes graphiques d'augmenter les performances. Le modèle le plus puissant, la GeForce 8800 GTX, était 50 % plus rapide que la précédente NVIDIA GeForce 7900 GTX.

ATI Technologies a lancé une série de cartes graphiques Radeon HD 2000, dont les modèles 2900 XT, 2600 XT et 2400 XT. Ces cartes comportaient la nouvelle architecture R600 et des technologies prises en charge telles que ATI CrossFire, qui permettaient d'utiliser plusieurs cartes graphiques pour augmenter les performances. Le modèle le plus puissant, la Radeon HD 2900 XT, était 25 % plus lent que le modèle NVIDIA GeForce 8800 GTX.

La deuxième génération de cartes graphiques Direct X 10 a été introduite en 2007. NVIDIA a lancé une nouvelle série de cartes graphiques GeForce 9, comprenant les modèles 9800 GX2, 9800 GTX, 9600 GT et 9500 GT. Ces cartes étaient équipées de l'architecture G92 améliorée et supportaient de nouvelles technologies telles que NVIDIA CUDA, qui permettaient d'utiliser la carte graphique pour les calculs. Le modèle le plus puissant - GeForce 9800 GX2 - était 5 à 10 % plus rapide que le modèle précédent NVIDIA GeForce 8800 GTX.

ATI Technologies a répondu en lançant de nouvelles cartes graphiques Radeon HD 3000, y compris les modèles 3870, 3850 et 3650. Ces cartes présentaient une architecture RV670 améliorée et prenaient en charge de nouvelles technologies telles que ATI Avivo HD, qui permettait de visualiser la vidéo haute définition à travers les graphiques. carte. Le modèle le plus puissant, la Radeon HD 3870, était 5 à 10 % plus lent que le modèle NVIDIA GeForce 9800 GX2.

En 2008, NVIDIA a lancé un nouveau modèle de carte graphique GeForce GTX 200, qui était équipée de la nouvelle architecture GT200 et était la carte graphique la plus rapide du marché. Il était 20 à 25 % plus rapide que le modèle précédent NVIDIA GeForce 9800 GX2.

ATI Technologies a répondu avec de nouvelles cartes graphiques Radeon HD 4000, y compris les modèles 4870, 4850 et 4670. Ces cartes comportaient la nouvelle architecture RV770 et prenaient en charge de nouvelles technologies telles que ATI Stream, qui permettait à la carte graphique d'être utilisée pour diffuser des données. Le modèle le plus puissant, la Radeon HD 4870, était 5 à 10 % plus lent que le modèle NVIDIA GeForce GTX 280.

La NVIDIA GeForce GTX 295 est sortie en 2009 et comportait deux GPU GT200b. Il avait 480 processeurs de flux, 1792 Mo de mémoire GDDR3 et un bus mémoire de 896 bits.

L'ATI Radeon HD 4870 X2 est également sortie en 2009 et comportait deux GPU RV770. Il avait 1600 processeurs de flux, 2 Go de mémoire GDDR5 et un bus mémoire de 512 bits. Cette carte graphique était très puissante et rivalisait avec la GTX 295 dans de nombreux jeux. Cependant, NVIDIA SLI et ATI CrossFire n'ont pas toujours fonctionné de manière fluide, et il a parfois fallu beaucoup de temps pour les optimiser...

Années 2010 : hautes performances, réalité virtuelle et utilisation du GPU dans l'apprentissage automatique

DirectX 11 est sorti en 2009 et a été conçu pour exécuter des applications utilisant des graphiques 3D sur des ordinateurs exécutant les systèmes d'exploitation Windows Vista et Windows 7.

 

La première génération de cartes vidéo prenant en charge DirectX 11 a été introduite en 2009. NVIDIA a lancé la série de cartes graphiques GeForce 400, y compris les modèles 460, 470 et 480. Ces cartes comportaient la nouvelle architecture Fermi et prenaient en charge de nouvelles technologies telles que CUDA et PhysX, qui permettaient d'utiliser la carte graphique pour les calculs et les simulations physiques. . Le modèle le plus puissant, la GeForce GTX 480, était 10 à 15 % plus rapide que la précédente NVIDIA GeForce GTX 295.

AMD a lancé la série de cartes graphiques Radeon HD 5000, y compris les modèles 5770, 5850 et 5870. Ces cartes comportaient la nouvelle architecture Cypress et des technologies prises en charge telles que DirectX 11 Compute Shader, qui permettait d'utiliser la carte graphique pour les calculs. Le modèle le plus puissant, la Radeon HD 5870, était 5 à 10 % plus rapide que le modèle NVIDIA GeForce GTX 480.

La deuxième génération de cartes graphiques DirectX 11 a été introduite en 2010. NVIDIA a lancé une nouvelle série de cartes graphiques GeForce 500, comprenant les modèles 560 Ti, 570 et 580. Ces cartes présentaient une architecture Fermi améliorée et prenaient en charge de nouvelles technologies telles que NVIDIA 3D Vision, qui permettait de jouer à des jeux en 3D. Le modèle le plus puissant, la GeForce GTX 580, était 5 à 10 % plus rapide que la précédente NVIDIA GeForce GTX 480.

AMD a répondu avec de nouvelles cartes graphiques Radeon HD 6000, y compris les modèles 6870 et 6970. Ces cartes présentaient la nouvelle architecture des îles du Nord et prenaient en charge des technologies telles que Eyefinity d'AMD, qui permettait de jouer à des jeux sur plusieurs moniteurs. Radeon HD 6970 - était 5 à 10 % plus lente que le modèle NVIDIA GeForce GTX 580.

L'AMD Radeon HD 6990 est sortie en 2011 et était l'une des cartes graphiques les plus puissantes de son époque. Il était équipé de deux GPU, chacun avec des processeurs de flux 1536, pour un total de processeurs de flux 3072. De plus, la carte graphique disposait de 4 Go de mémoire GDDR5 et d'un large bus mémoire 256 bits. La HD 6990 était capable de fournir des performances élevées dans les jeux haute résolution et était compétitive avec les cartes graphiques NVIDIA de la même époque, comme la GeForce GTX 580. Cependant, elle avait également une consommation d'énergie élevée et un prix élevé, ce qui la rendait moins abordable. pour la plupart des utilisateurs.

En 2011, NVIDIA a poursuivi sa domination avec la sortie de la série de cartes graphiques GeForce 600, y compris les modèles 660 Ti, 670, 680 et 690. Ces cartes comportaient la nouvelle architecture Kepler et des technologies prises en charge telles que NVIDIA Adaptive V-Sync, ce qui a permis de synchroniser la fréquence d'images de la carte graphique et de surveiller un fonctionnement plus fluide. Le modèle le plus puissant, la GeForce GTX 690, était 20 à 25 % plus rapide que la précédente NVIDIA GeForce GTX 580.

AMD a répondu avec de nouvelles cartes graphiques Radeon HD 7000, y compris les modèles 7850, 7870 et 7970. Ces cartes présentaient la nouvelle architecture des îles du Sud et prenaient en charge des technologies telles que ZeroCore Power d'AMD, qui permettait à la carte graphique d'entrer en mode basse consommation lorsqu'elle n'était pas utilisée. utilisé. Le modèle le plus puissant, la Radeon HD 7970, était 5 à 10 % plus rapide que le modèle NVIDIA GeForce GTX 680.

En 2012, NVIDIA a lancé un nouveau modèle de carte graphique GeForce GTX 690, qui était équipée de deux GPU et était la carte graphique la plus rapide du marché. Elle était 20 à 25 % plus rapide que la précédente NVIDIA GeForce GTX 680.

La série de cartes graphiques GTX 7XX a été développée et publiée par NVIDIA en 2013. L'un des modèles les plus puissants et les plus populaires de la série est la GTX 780 Ti. Il est équipé d'un processeur d'une fréquence de 875 MHz et dispose de 3 Go de mémoire GDDR5. Cette carte vidéo a été reconnue comme la meilleure du marché en 2013 et a longtemps été l'une des plus puissantes.

AMD a répondu avec la sortie des nouvelles cartes graphiques Radeon HD 8000 et R9 200, qui présentaient une architecture GCN améliorée et des technologies prises en charge telles que AMD TrueAudio, qui permettaient aux jeux d'avoir un son plus réaliste. Le modèle le plus puissant, la Radeon R9 290X, était 5 à 10 % plus lent que le modèle NVIDIA GeForce GTX 780 Ti.

Titan Z

NVIDIA GeForce GTX Titan Z et AMD Radeon R9 295X2 sont sortis en 2014 et figuraient parmi les cartes graphiques les plus puissantes de leur époque. La GeForce GTX Titan Z était équipée de deux GPU, chacun avec 2880 processeurs de flux, pour un total de processeurs de flux 5760. De plus, la carte graphique disposait de 12 Go de mémoire GDDR5 et d'un large bus mémoire 768 bits. Il a été conçu pour les tâches lourdes telles que le rendu graphique 3D et le traitement vidéo, ainsi que les jeux haute résolution.

L'AMD Radeon R9 295X2 avait également deux GPU, chacun avec des processeurs de flux 2816, pour un total de processeurs de flux 5632. La carte graphique avait 8 Go de mémoire GDDR5 et un large bus mémoire 512 bits. Il a également été conçu pour les tâches lourdes et les jeux haute résolution.

Toujours au cours de cette décennie, l'utilisation d'unités de traitement graphique (GPU) dans l'apprentissage automatique et la recherche scientifique a commencé à se répandre. En raison de leur parallélisme élevé et de leur capacité à traiter un grand nombre d'opérations similaires, les GPU sont devenus un excellent choix pour traiter et analyser d'énormes quantités de données. Cela a provoqué une augmentation de la demande de cartes vidéo parmi les chercheurs et les développeurs d'apprentissage automatique.

Les années 2010 ont vu le retour de la réalité virtuelle (VR). Les cartes graphiques hautes performances sont devenues la base des appareils VR modernes tels que l'Oculus Rift et le HTC Vive. Les exigences de la réalité virtuelle en matière de qualité d'image et de fréquences d'images ont obligé les fabricants de cartes graphiques à continuer d'augmenter les performances de leurs produits.

2015 - Sortie DirectX 12

La plate-forme logicielle DirectX 12 a été lancée en 2015 et a été conçue pour exécuter des applications utilisant des graphiques 3D sur des ordinateurs exécutant les systèmes d'exploitation Windows 10.

La première génération de cartes vidéo prenant en charge DirectX 12 a été introduite en 2015. NVIDIA a sorti une série de cartes graphiques GeForce GTX 900, y compris les modèles 970, 980 et 980 Ti. Ces cartes présentaient la nouvelle architecture Maxwell et prenaient en charge de nouvelles technologies telles que Dynamic Super Resolution (DSR), qui permettait de jouer à des jeux à une résolution plus élevée que le moniteur. Le modèle le plus puissant, la GeForce GTX 980 Ti, était 30 % plus rapide que la précédente NVIDIA GeForce GTX 980.

AMD a lancé la série de cartes graphiques Radeon R9 300, y compris les modèles R9 390 et R9 390X. Ces cartes comportaient la nouvelle architecture GCN 1.2 et des technologies prises en charge telles que Virtual Super Resolution (VSR), qui permettaient de jouer à des jeux à une résolution supérieure à celle du moniteur. Le modèle le plus puissant, la Radeon R9 390X, était 5 à 10 % plus rapide que le modèle AMD Radeon R9 290X.

La série AMD Fury est sortie en 2015 et comprenait plusieurs modèles de cartes graphiques tels que Fury X, Fury et Nano. Fury X est le plus puissant de tous, avec 4096 processeurs de flux et 4 Go de mémoire HBM. Fury et Nano ont 3584 processeurs de flux et 4 Go de mémoire HBM.

L'une des principales caractéristiques des cartes vidéo de la série AMD Fury était l'utilisation de la technologie HBM (High Bandwidth Memory), qui vous permet d'augmenter la vitesse de transfert de données entre la carte vidéo et le processeur, ainsi que de réduire la consommation d'énergie.

La deuxième génération de cartes graphiques DirectX 12 a été introduite en 2016. NVIDIA a sorti une série de cartes graphiques GeForce GTX 1000, y compris les modèles 1060, 1070, 1080 et 1080 Ti. Ces cartes présentaient la nouvelle architecture Pascal et prenaient en charge de nouvelles technologies telles que la multi-projection simultanée (SMP), qui permettait de jouer à des jeux sur plusieurs moniteurs simultanément. Le modèle le plus puissant, la GeForce GTX 1080 Ti, était 30 % plus rapide que la précédente NVIDIA GeForce GTX 980 Ti.

AMD a lancé la série de cartes graphiques Radeon RX 400, y compris les modèles RX 460, RX 470 et RX 480. Ces cartes comportaient la nouvelle architecture Polaris et des technologies prises en charge telles que AMD FreeSync, qui synchronisait la fréquence d'images de la carte graphique et du moniteur. pour une expérience fluide et sans scintillement. Le modèle le plus puissant, la Radeon RX 480, était 20 % plus rapide que le modèle AMD Radeon R9 390X.

En 2017, NVIDIA a lancé de nouvelles cartes graphiques GeForce GTX série 1000, les modèles 1080 Ti et Titan Xp, qui étaient encore plus puissantes et supportaient de nouvelles technologies telles que NVIDIA Ansel, qui vous permettait de prendre des captures d'écran de haute qualité dans les jeux. AMD a répondu avec les nouvelles cartes graphiques Radeon RX Vega 56 et RX Vega 64, qui présentaient l'architecture Vega et des technologies prises en charge telles que Radeon Chill, qui ajustait automatiquement les fréquences d'images pour réduire les températures des cartes graphiques et améliorer les performances.

5700

En 2019, AMD a développé des cartes graphiques basées sur l'architecture RDNA. Il se compose de plusieurs modèles dont Radeon RX 5700 XT, Radeon RX 5700, Radeon RX 5600 XT et Radeon RX 5500 XT. L'une des principales caractéristiques de l'architecture RDNA est son travail plus efficace avec les calculs, ce qui a permis d'améliorer les performances des jeux. L'architecture de cache a également été améliorée et de nouvelles technologies telles que la mémoire PCIe 4.0 et GDDR6 ont été utilisées, ce qui a augmenté la vitesse de transfert de données entre la carte vidéo et le processeur.

Radeon VII

La Radeon VII est également sortie en 2019 et était basée sur l'architecture Vega. Cette carte graphique est équipée de 3840 processeurs de flux, de 16 Go de mémoire HBM2 et d'un large bus mémoire de 4096 bits. La Radeon VII était destinée aux tâches professionnelles telles que le montage vidéo et graphique, ainsi que les jeux en haute définition.

Traçage de rayons et NVIDIA RTX

Dans les années 2020, les cartes graphiques n'ont cessé d'évoluer, introduisant de nouvelles technologies et offrant des performances encore plus élevées. L'une des technologies clés est le lancer de rayons en temps réel, qui vous permet de créer un éclairage, des reflets et des ombres photoréalistes. En 2018, NVIDIA a présenté la série de cartes graphiques GeForce RTX basée sur l'architecture Turing qui prenait en charge le traçage de rayons accéléré par le matériel.

La première génération de cartes graphiques compatibles RT, la série NVIDIA GeForce RTX 20, est sortie en 2018. Le modèle le plus puissant était la GeForce RTX 2080 Ti avec 11 Go de mémoire GDDR6, 4352 processeurs de flux et un bus mémoire 352 bits. Alors qu'AMD Radeon n'avait pas de support RT dans ses cartes graphiques.

Dans la série NVIDIA GeForce RTX 30 de nouvelle génération sortie en 2020, le modèle le plus puissant était la GeForce RTX 3090 avec 24 Go de mémoire GDDR6X, 10496 processeurs de flux et une largeur de mémoire de 384 bits. Cette fois, AMD a répondu avec ses cartes graphiques de la série Radeon RX 6000, notamment les Radeon RX 6800, Radeon RX 6800 XT et Radeon RX 6900 XT. La Radeon RX 6800 était équipée de 60 unités de calcul et de 16 Go de mémoire GDDR6, tandis que la Radeon RX 6900 XT était équipée de 80 unités de calcul et de 16 Go de mémoire GDDR6.

Radeon RX 69500 XT

En 2021, NVIDIA a lancé la série GeForce RTX 30 avec des modèles mis à jour, notamment la GeForce RTX 3080 Ti et la GeForce RTX 3070 Ti. La GeForce RTX 3080 Ti était équipée de 12 Go de mémoire GDDR6X, de 10240 processeurs de flux et d'un bus mémoire 384 bits, tandis que la GeForce RTX 3070 Ti était équipée de 8 Go de mémoire GDDR6X, de 6144 processeurs de flux et d'un bus mémoire 256 bits. . AMD a également rapidement publié sa gamme mise à jour de cartes graphiques compatibles RT - Radeon RX 6650 XT, Radeon RX 6750 XT et Radeon RX 6950 XT.

Fin 2022, NVIDIA a présenté la nouvelle architecture Ampere et a sorti trois modèles de cartes graphiques : RTX 4070 Ti, RTX 4080 et RTX 4090. Dans le même temps, AMD a présenté ses nouvelles cartes graphiques à architecture RDNA3 - 7900 XT et 7900 XTX.

Intel Arc A770 A750

Le 15 octobre 2022, Intel est revenu sur le marché des graphiques de bureau et a sorti ses nouveaux accélérateurs Arc A750 et A770. Les cartes vidéo sont basées sur des GPU ACM-G10 avec respectivement 28 et 32 ​​cœurs Xe (3584 et 4096 unités FP32, 28 et 32 ​​unités de traçage de rayons et 480 et 512 moteurs matriciels XMX). Les fréquences sont presque égales - 2050 et 2100 MHz, respectivement. La carte graphique Arc A750 est disponible avec 8 Go de mémoire GDDR6, tandis que l'Arc A770 est disponible avec 8 ou 16 Go de GDDR6. Dans tous les cas, un bus 256 bits est utilisé, et une bande passante mémoire de 512 ou 560 Go/s.

L'avenir des cartes graphiques et des fabricants

Les cartes vidéo modernes ont également commencé à utiliser activement l'intelligence artificielle pour améliorer la qualité et les performances de l'image. Les technologies NVIDIA DLSS (Deep Learning Super Sampling) et FidelityFX Super Resolution (FSR) d'AMD utilisent l'IA pour mettre à l'échelle une image de résolution inférieure à une résolution supérieure tout en maintenant une qualité d'image élevée et en augmentant le FPS.

De plus, NVIDIA et AMD améliorent la technologie de génération d'images en temps réel, qui permet aux cartes graphiques de générer de nouvelles images basées sur les précédentes, améliorant ainsi la qualité de l'image et offrant une lecture plus fluide. La technologie de génération d'images est disponible dans DLSS 3.0 et FSR 3.0 et permet aux joueurs de profiter de jeux avec des performances et une qualité d'image supérieures.

Les progrès dans l'industrie des cartes graphiques ne s'arrêtent pas et les fabricants continuent d'innover et de développer de nouvelles technologies. Une nouvelle technologie qui pourrait changer le visage de l'infographie est le path tracing. Cette technologie vous permet de générer des images qui reflètent plus fidèlement le comportement de la lumière et des matériaux dans le monde réel, ce qui donne l'impression d'un photoréalisme complet. NVIDIA a déjà publié un prototype de carte vidéo avec prise en charge matérielle du path tracing, et à l'avenir, nous pouvons nous attendre à de nouveaux produits de fabricants basés sur cette technologie.

A1lxPSB7RCG6mfYD

Dans un avenir proche, la demande de cartes graphiques hautes performances et prenant en charge les dernières technologies telles que le lancer de rayons, l'intelligence artificielle, la génération de trames et le multithreading devrait augmenter. Les fabricants continueront d'améliorer leurs produits pour répondre aux besoins des joueurs, développeurs, chercheurs et utilisateurs qui ont besoin d'un traitement graphique rapide et puissant.

 

 
 

former

  
 

Rejoignez-nous sur les réseaux sociaux !

tg Facebook insta lien refaire twiter jute

Personnes dans cette conversation

Commentaires (5)

Ce commentaire a été minimisé par le modérateur sur le site

D'une part - l'eau avec de l'eau, les faits sont des paragraphes peu fiables et même mutuellement exclusifs. D'un autre côté, je veux encore me souvenir.


"Le modèle le plus puissant, la Radeon R9 290X, était 5 à 10 % plus lent que le modèle NVIDIA GeForce GTX 780 Ti."
Enfin, pas toujours ...
https://3dnews.ru/assets/external/illustrations/2022/08/22/1072654/metro_exodus_1080p.png
https://3dnews.ru/assets/external/illustrations/2022/08/22/1072654/doom_eternal_1080p.png
https://3dnews.ru/assets/external/illustrations/2022/08/22/1072654/far_cry_6_1080p.png

Ce commentaire a été minimisé par le modérateur sur le site

Après la sortie de Voodoo2 en 1998, 3DFX a dû faire face à une concurrence féroce de NVIDIA et ATI. Cela a entraîné une détérioration de la situation financière de l'entreprise qui, à son tour, a entraîné une réduction des investissements en recherche et développement. Finalement, 3DFX a été racheté par NVIDIA en 2000.

L'une des raisons de l'effondrement de 3DFX était la couleur 16 bits...

"NVIDIA a gagné cette guerre grâce à un marketing intelligent, une planification intelligente et… cartes budgétaires. Oui, le produit phare Voodoo3 était difficile à battre dans les jeux, mais son fabricant a indiqué en toute honnêteté sur la boîte les caractéristiques de la carte vidéo - couleur 16 bits en mode tridimensionnel, la résolution d'affichage maximale de 2048x1536, la taille de texture maximale de 256x256 pixels. Le RIVA TNT2 qui se tenait à côté de lui sur l'étagère prenait en charge les textures 2048x2048 et un mode 32D 3 bits. Et les acheteurs ont craqué pour les chiffres : ils se fichaient que Voodoo soit plus rapide, et les jeux qui pouvaient profiter de RIVA TNT2 se comptaient sur les doigts d'une main.."

Nous sommes en 2023 et rien n'a changé

La première génération de cartes vidéo DirectX 9 a été introduite en 2002. NVIDIA a lancé la GeForce FX, y compris les modèles 5800, 5600 et 5200. Les cartes comportaient la nouvelle architecture NV30 et des technologies prises en charge telles que NVIDIA CineFX pour des graphismes 3D réalistes et NVIDIA Intellisample pour une qualité d'image améliorée. Cependant, ces cartes n'ont pas eu beaucoup de succès car elles étaient chères et n'avaient pas de performances compétitives par rapport aux modèles et concurrents précédents de NVIDIA.

Je dirais que c'était vraiment dommage pour Nvidia, qui a caché aux acheteurs que dans ces VK il y avait des problèmes de performances de shader (dans le contexte d'un concurrent), quand cela s'est avéré et que l'indignation des acheteurs est survenue, ils ont dit qu'ils ont été mal compris et ils n'ont rien remboursé.

Se familiariser avec l'histoire de VK, ça ira, mais il y a des articles sur Internet qui sont plus intéressants avec un grand nombre. détails et nuances diverses.

Ce commentaire a été minimisé par le modérateur sur le site

Avec Nvidia FX5900, il s'est avéré à "optimisation" Half Life 2, Gabin a bêtement dit qu'aucune optimisation DirectX 9,0c ne pouvait être ajoutée au jeu pour de bon, c'est pourquoi tout volait sur DirectX 8,1 - c'est même ridicule de comparer avec Dx 9,0))) Même maintenant, certaines personnes uniques pensent que le La moitié du jeu Life 2 est "boguée", et ce n'est pas un problème avec la carte vidéo Nvidia)))
Maintenant, il est clair d'où vient l'expression: "si le jeu ralentit, alors c'est le problème du jeu et non de la carte vidéo Nvidia, ne mélangez pas ça"

Ce commentaire a été minimisé par le modérateur sur le site

"L'une des raisons pour lesquelles 3DFX a planté était la couleur 16 bits..."
Non, ce n'est pas pour ça, Voodoo2 n'était qu'un accélérateur 3D sans graphisme 2D, et pour 1997, cela ressemblait déjà à une technologie obsolète !
La première carte 3D pour le jeu avec sa propre API Metal est sortie en 1994, Matrox Impresion Plus, cette carte restituait des graphismes 3D et 2D, contrairement à la future 3dfx, qui jusqu'en 1998 ne pouvait que de la 3D sans 2D.
Nvidia NV1 1995 pourrait également en 3D et 2D, comme les suivants ATI Rage et PowerVR, etc.
Le concept lui-même est dépassé à la sortie, contrairement aux concurrents))))
Bien sûr, il est faible de ne pas connaître les pionniers sous la forme de Matrox avec ses innovations non seulement dans les jeux, mais aussi dans les tailles d'écran ultra-hautes et multi-écrans.

Ce commentaire a été minimisé par le modérateur sur le site

Alors, où est Intel ARC ??? Cela semble être un événement important, mais ignorez)))
Un autre jeu vidéo chinois développé par PoweVR (Grande-Bretagne) !
https://www.overclockers.ua/news/video/131755-moore-threads-mtt-s80-2.jpg