blue and yellow door on white tiled floor

Credits image : Clique Retire / Unsplash

HardwareIntelligence ArtificielleOrdinateursTechnologie
0

La plateforme L4 de Nvidia est-elle la solution ultime pour le traitement vidéo basé sur l’IA ?

La nouvelle plateforme L4 est-elle la clé pour un avenir optimisé dans le traitement vidéo basé sur l’IA ? En collaboration avec Google, Nvidia a lancé aujourd’hui une nouvelle offre matérielle de cloud, la plateforme L4, optimisée pour exécuter des applications axées sur la vidéo. Que peut offrir cette plateforme aux entreprises et développeurs ?

Disponible en aperçu privé sur Google Cloud via les machines virtuelles G2 de Google, Nvidia affirme que la plateforme L4 est conçue pour accélérer les performances vidéo « alimentées par l’IA ». En tant que GPU polyvalent, la L4 offre des capacités de décodage, de transcodage, et de diffusion en streaming vidéo.

Au-delà de la mise à disposition de la plateforme L4 via Google Cloud, Google intègre également la L4 dans Vertex AI, son service de machine learning géré pour les clients d’entreprise. Qu’en est-il pour ceux qui ne souhaitent pas s’inscrire à Google Cloud ?

La plateforme L4 sera également disponible auprès des partenaires matériels de Nvidia, tels qu’Asus, Cisco, Dell, Hewlett Packard Enterprise et Lenovo, prévu pour plus tard cette année.

L4 rejoint d’autres solutions matérielles axées sur l’IA annoncées aujourd’hui par Nvidia, telles que L40, H100 NVL et Grace Hopper pour les modèles de recommandation. L40 est optimisé pour les graphiques et la génération d’images 2D, vidéo et 3D, tandis que H100 NVL prend en charge le déploiement de grands modèles linguistiques tels que ChatGPT. Quant à Grace Hopper, elle est focalisée sur les modèles de recommandation.

L40 est disponible cette semaine via les partenaires matériels mentionnés précédemment. Nvidia prévoit d’expédier Grace Hopper et H100 NVL au cours de la seconde moitié de l’année.

Dans des nouvelles relatives, Nvidia a également lancé aujourd’hui sa plateforme DGX Cloud, qui offre aux entreprises un accès à l’infrastructure et aux logiciels pour former des modèles d’IA générative et autres. Annoncée plus tôt cette année, la plateforme DGX Cloud permet aux entreprises de louer des clusters de matériel Nvidia sur une base mensuelle, à partir de 36 999 $ par instance par mois.

Chaque instance de DGX Cloud dispose de huit GPU Nvidia H100 ou A100 80GB Tensor Core pour un total de 640 Go de mémoire GPU par nœud, associés à du stockage. Les abonnés DGX Cloud bénéficient également de l’accès à AI Enterprise, la couche logicielle de Nvidia contenant des modèles pré-entraînés, des bibliothèques de science des données « accélérées » et des frameworks d’IA.

La plateforme L4 de Nvidia saura-t-elle répondre aux besoins croissants des entreprises et des développeurs en matière de traitement vidéo basé sur l’intelligence artificielle ? Seul l’avenir nous le dira.

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.