jeugpu     Rechercher trouver 4120

 tg2 f2 lin2 in2 Icône X 3 y2  p2 Tik vapeur2

Annonces NVIDIA au Siggraph 2017

Présentation des annonces de NVIDIA au Siggraph 2017

  • Nouveaux SDK
    • OptiX 5.0 avec réduction de bruit AI
    • Vidéo 360 en stéréo avec intégration dans la solution ZCAM
  • Nouveaux produits
    •  Station DGX, un supercalculateur personnel pour développer l'IA pour les applications graphiques
    • cartes graphiques externes Quadro et Titan Xp (eGPU)
  • Nouvelles simulations d'IA en réalité virtuelle (jouer aux dominos avec le robot Isaac entraîné par les neurones dans l'environnement virtuel de collaboration Holodeck)
  • Nouveaux développements liés à l'IA, à la réalité augmentée et VR

Accélération du rendu avec l'IA

NVIDIA a annoncé l'utilisation de l'intelligence artificielle (IA) pour accélérer le rendu, introduisant SDKNVIDIAOptix™ 5.0 avec de nouvelles capacités de lancer de rayons.

SDKOptix 5.0 lancé le NVIDIADGXStation™, une nouvelle station de travail IA, fournira aux concepteurs, artistes et autres professionnels du contenu numérique des capacités de rendu comparables à la norme 150 Processeur-les serveurs. Tel GPU- l'accélération permettra l'itération et la création de nouvelles versions de contenus haute-fidélité à un coût bien moindre.

image003

Nouvelles fonctionnalités de lancer de rayons Optix 5.0 accélérera le processus de visualisation du projet et améliorera considérablement l'interaction des développeurs avec leur contenu. Ils vont aussi accélérer dégraisser l'image en utilisant des méthodes basées sur l'IA et ajoutez une accélération GPU pour créer un flou de mouvement dans l'animation.

Optix 5.0 sera disponible gratuitement pour les développeurs enregistrés en novembre.

Fonctionnement NVIDIAOptix Xnumx sur DGXStation, les créateurs de contenu peuvent sensiblement accélérer la formation, l'inférence et le rendu. Système presque silencieux NVIDIADGXStation, qui se glisse facilement sous le bureau, est basé sur GPU Nouvelle Génération NVIDIAVolta, et est le système de rendu le plus puissant utilisant l'intelligence artificielle. Pour obtenir des performances équivalentes à DGX Station, les développeurs devront créer une ferme avec plus de 150 serveurs avec une consommation énergétique d'environ 200 kW - à comparer avec la DGX Station qui consomme 1.5 kW. Le coût d'achat et d'entretien d'une telle ferme atteint 4 millions de dollars sur trois ans, comparativement à 75 000 $ pour la station DGX.

Plus

Le streaming vidéo 360 en stéréo devient une réalité

 

NVIDIA a présenté le SDK Vidéo VRWorks 360, qui vous permet de diffuser des vidéos 360 de haute qualité en stéréo en direct.

L'assemblage de vidéos 360 en stéréo est un pas en avant pour l'industrie de la diffusion en direct. NVIDIA VRWorks accélère le processus de fusion vidéo en stéréo tout en maintenant un haut niveau de qualité d'image.

Le SDK VRWorks permet aux studios de production, aux fabricants de caméras et aux développeurs d'applications d'intégrer le SDK de fusion 360 à stéréo dans leur workflow de diffusion en direct et de post-production existant. Nouveau modèle VPro by Z CAM est la première caméra VR professionnelle à 360 degrés avec un SDK VRWorks entièrement intégré.

image005

Z CAM, l'une des premières entreprises à lancer une caméra VR professionnelle grand public pour la diffusion en direct, intègre également le SDK NVIDIA VRWorks dans ses applications d'assemblage d'images WonderStitch et merveille en direct . 

SDKVRWorks 360 sera disponible en téléchargement le 7 août et permettra aux développeurs de capturer, assembler et diffuser Contenu vidéo à 360 degrés. VRWorks prend en charge le streaming et le post-traitement vidéo mono et stéréo à 360 degrés en temps réel, notamment :

        fusionner les flux vidéo des caméras 4K en temps réel et hors ligne ;

        Décodage, étalonnage, assemblage et encodage vidéo accélérés par GPU ;

        Projection à 360 degrés sur une carte cubique ou un panorama ;

        prise en charge de GPUDirect for Video pour une vidéo à faible latence ;

        prise en charge de jusqu'à 32 flux vidéo.

Plus

externe GPUNVIDIA pour ordinateurs portables

Rendu interactif, création VR et le développement de l'IA sont désormais disponibles sur les ordinateurs portables. Les concepteurs professionnels avec des graphismes sous-alimentés peuvent désormais obtenir de la puissance NVIDIATITANXp ou NVIDIACadre® utilisant un châssis pour GPU (eGPU) pour améliorer considérablement les performances de vos applications.

image009

Pour toute personne travaillant avec des applications de création de contenu pour l'animation, l'étalonnage et le rendu des couleurs, ainsi que des applications de CAO et de modélisation, des graphiques externes Cadre sera disponible pour les personnes certifiées dans le programme eGPU partenaires de l'entreprise (BizonUNArrêterSystème/Magma и Sonnet, et plus tard pour les autres)à partir de septembre.

Pour garantir des performances élevées aux utilisateurs professionnels travaillant avec Autodesk® Maya® et Adobe® PremierPro sur les systèmes avec TITANXpNVIDIA communiqués nouveau pilote.

Plus

Allons-nous jouer aux dominos ? Robot Isaac в ProjetHolodeck

Notre nouvelle démo vous guidera à travers deux technologies que nous avons annoncées en mai lors de la conférence GTC.

Projet NVIDIA Holodeck est un environnement de quasi-réalité physique multi-utilisateurs qui permet aux gens d'interagir avec des robots en réalité virtuelle comme dans la vraie vie.

NVIDIA Isaac est un robot d'intelligence artificielle (IA) formé à l'aide du puissant environnement de simulation d'Isaac Lab.

Les visiteurs de Siggraph verront comment ces deux technologies fonctionnent ensemble, interagissant avec le robot Isaac de deux manières.

image012

 

Tout d'abord, vous pourrez vous promener avec le robot dans le monde physique à travers l'exposition. Dans un second temps, vous pourrez enfiler un casque VR et entrer dans l'environnement de simulation via le Project Holodeck.

L'utilisation complexe de l'apprentissage en profondeur et de la vision par ordinateur vous permet d'apprendre au robot à détecter et à réagir à la présence de personnes, à comprendre le jeu, à comprendre les mouvements corrects dans le jeu et à déterminer quel domino choisir et comment le placer. Apprendre à travers deux réseaux de neurones aide le robot Isaac non seulement à comprendre le jeu, mais également à comprendre comment appliquer cette compréhension lors de l'interaction avec les gens.

Sur la base des images de dominos obtenues, le premier réseau de neurones est analysé pendant le jeu et détermine les mouvements autorisés possibles. Les données sont ensuite introduites dans un autre réseau de neurones, qui utilise l'apprentissage par renforcement pour déterminer quelle tuile sélectionner et comment la positionner.

Après une formation dans l'environnement Isaac, les connaissances acquises peuvent être transférées entre les mondes physiques et virtuels.

En construisant et en entraînant des robots dans un environnement de simulation, puis en travaillant avec eux dans un environnement VR comme Project Holodeck, les développeurs peuvent libérer des robots dans le monde réel plus rapidement et à moindre coût.

L'accès anticipé à la bêta Holodeck ouvrira en septembre 2017. Signer sur les mises à jour du projet Holodeck. 

Plus 

Commentaires (0)