Compatibilité GPU NVIDIA

v1.9March 27, 2025

Nous sommes ravis d'annoncer l'ajout du support GPU NVIDIA dans LayerOps ! Cette mise à jour majeure apporte de puissantes capacités GPU à vos services, vous permettant d'exécuter des charges de travail intensives en GPU comme les applications IA/ML et les services Ollama.

Nouvelles fonctionnalités

Support d'instances GPU externes

Vous pouvez désormais rattacher toute machine externe équipée de GPU NVIDIA à votre infrastructure LayerOps. Cette fonctionnalité supporte les systèmes basés sur Ubuntu avec les drivers NVIDIA correctement installés, facilitant l'intégration de votre matériel GPU existant.

Intégration des fournisseurs cloud compatibles GPU

LayerOps supporte désormais le déploiement d'instances GPU via vos fournisseurs cloud configurés. Cette intégration vous permet de mettre automatiquement à l'échelle vos charges de travail GPU en fonction de la demande, avec le support de différents types d'instances compatibles GPU des principaux fournisseurs cloud.

exoscale GPU

Déploiement de services GPU

La configuration de services pour utiliser les GPU NVIDIA est désormais simple. Activez simplement les capacités GPU dans la section « Devices » de la configuration de votre service, et LayerOps déploiera automatiquement votre service sur les instances compatibles GPU.

servoce GPU

Cette intégration transparente garantit que vos charges de travail intensives en GPU s'exécutent sur l'infrastructure appropriée sans aucune configuration supplémentaire.

Pour plus d'informations détaillées sur le support GPU, veuillez consulter notre documentation sur les GPU et les Instance Pools.

Ollama dans la Marketplace

Ollama est désormais disponible dans la Marketplace LayerOps, permettant un déploiement rapide de grands modèles de langage (LLM). Combiné à notre nouveau support GPU, vous pouvez exécuter efficacement ces modèles sur votre infrastructure GPU.

Ollama Marketplace

Fonctionnalités clés :

  • Déploiement en un clic d'Ollama avec support GPU
  • Allocation automatique des ressources et mise à l'échelle
  • Intégration transparente avec le monitoring et les logs LayerOps