Peut-on faire confiance aux systèmes de vision artificielle ?
Nouvel Atelier Dataquitaine le 10 novembre à 12h en format webinaire sur l’apprentissage profond interactif.
L’approche contemporaine de conception des fonctions de vision artificielle, telles que la classification d’images, la reconnaissance d’objets, de personnes ou encore la segmentation sémantique, est l’exploitation de techniques d’apprentissage automatique, principalement d’apprentissage profond (« Deep Learning »). 🧠.
Leur utilisation a révolutionné la conception algorithmique et a ainsi permis de produire des prédicteurs capables d’aborder une plus grande variété de données d’entrée, un exemple paradigmatique étant la classification d’image sur la base ImageNet, parfois annoncée comme surpassant les capacités humaines d’interprétation. Ces fonctions ont ainsi atteint un niveau de maturité permettant d’envisager leur utilisation pour des application réelles voire critiques.
La sortie des laboratoires des fonctions de vision artificielle appelle cependant un regard critique sur leur maturité. Sont-elles utilisables et avec quelles garanties ? La confiance de l’IA est en effet une problématique qui apparaît maintenant centrale par ses enjeux industriels ou sociétaux (cf. sa promotion par l’Union Européenne).
L’objectif de cet atelier Dataquitaine sera de donner un aperçu des activités et pistes de recherche proposées sur l’apprentissage profond interactif pour garantir la fiabilité de la vision artificielle, et d’identifier sa spécificité.
Intervenant :
Stéphane Herbin : Maître de Recherche, HDR chez l’Onera
Vous voulez découvrir plus d’événement proche de chez vous ?
👉Rendez-vous sur notre page Agenda