
Pour les data engineers
Les tâches de connecteurs de données et les modèles de workflows permettent d’automatiser et de faire passer à l’échelle les pipelines d’ingestion et de préparation des données

Pour les data scientists
Mise à l’échelle de l’apprentissage, de la validation et du test du modèle en parallèle
AutoML pour mettre à l’échelle le tuning des modèles pendant les expériences
Jupyter Kernel et connecteur Python pour créer des workflows d’IA à partir du code
Tâches d’IA et modèles de workflows pour automatiser les pipelines d’IA

Pour les architectes d’IA
Model as a Service (MaaS) : déployer et exposer des modèles d’IA en production et à l’échelle ; surveillance, alerte, détection de dérive des données
JupyterLab as a Service : déployer une instance JupyterLab à la demande
Analyse et visualisation des tâches en tant que service : suivre et visualiser les métriques de votre workflow de machine learning
Services gérés (KNIME, …)