Le récent engouement autour de la data science a permis le développement d'un écosystème extrêmement riche et dynamique autour de l'analyse de données. De nombreuses organisations se sont lancées dans ce domaine : détections d'anomalies, vision par ordinateur, classification d'objets sont quelques exemples de cas d'usage dont la résolution nécessite de mettre en Åuvre des compétences très variées. La multiplication de ces projets a mis en lumière de nouvelles problématiques spécifiques à ce type de projet.
Une problématique récurrente concerne la mise en production d'un modèle de machine learning. Les outils et les méthodes pour réaliser cela ne sont pas encore très matures, et les bonnes pratiques ne sont pas clairement définies. Comment passer d'un modèle fonctionnant en local à un modèle scalable déployé en production ? Quelles sont les différentes étapes de ce cycle ? Quelle architecture choisir ? Chaque cas d'usage en data science est spécifique et nécessitera une compréhension précise du problème opérationnel à traiter. Nous avons identifié une architecture et des processus permettant de déployer un système de machine learning respectant les caractéristiques suivantes : environnement facile à déployer et à reproduire, itération simple entre les data scientist et les développeurs, scalabilité de la solution. Nous montrerons un exemple de cette architecture basé sur Docker et Kubernetes.
Jusqu'à présent le développement autour des thématiques de l'intelligence artificielle se concentrait essentiellement sur la faisabilité technique et la réponse à des cas d'usage précis. Nous entrons désormais dans une nouvelle phase d'industrialisation. Nous étudions les différentes méthodes et bonnes pratiques qui commencent à émerger afin de structurer nos projets et répondre à cet enjeu le plus efficacement possible.