Publié le 8 novembre 2019

    DeepLearn 2019 : Participation de la lauréate du prix Colloque ESSI 2018

    Le prix Colloque ESSI 2018 du meilleur poster, d’une valeur de 1000 €, a permis à la lauréate Neziha SENDI, de participer à l’école d'été DeepLearn 2019, événement international majeur dans le domaine du Deep Learning. Elle revient pour nous sur ces quelques jours de formation auprès d’experts de renommée mondiale.

    Lors du colloque ESSI 2018 « Intelligence Artificielle pour l’Homme et sa santé », Neziha SENDI, doctorante au laboratoire IBISC de l’Université d’Évry, s’était vue récompensée du prix meilleur poster pour sa communication «TransDeep: Transparent Deep ensemble method based on argumentation for classification».

    D’une valeur de 1000 €, ce prix Colloque ESSI 2018 du meilleur poster lui a permis de participer à l’école d’été DeepLearn 2019. Cet événement de formation à la recherche d’une portée mondiale visait à informer les participants des dernières avancées dans le domaine critique et en rapide évolution de l'apprentissage en profondeur, une branche de l’intelligence artificielle couvrant un large éventail de recherches et d’innovations industrielles.

    Neziha SENDI nous livre ici le compte-rendu de sa participation à cette formation.

    Lien vers APPEL A POSTERS 2019 - Colloque ESSI "Réalité Virtuelle et Augmentée"

    Compte rendu de la formation DeepLearn

    Parcours, Sujet de recherche, Projets

    Je m’appelle Naziha Sendi et je suis doctorante en thèse CIFRE depuis deux ans, encadrée par Etienne Colle (PR IUT Evry), Nadia Abchiche-Mimouni (MCF Université d’Évry) et Farida Zehraoui (MCF Université d’Évry) à IBISC et BeWellConnect.

    Mon sujet de thèse porte sur la conception et le développement d'un système individualisé pour l’auto-gestion de l’hypertension artérielle.

    Sujet de thèse

    L’hypertension artérielle est un des facteurs de risque cardiovasculaire les plus important. Les accidents cardiovasculaires sont la cause de 30% des décès.

    La prise en charge de l'hypertension artérielle fait l'objet de multiples recommandations, régulièrement mises à jour. L’adhésion aux règles classiques de prise en charge pourrait être remplacée avantageusement par une prise en charge individualisée. Ceci revient à mettre en place une gestion individualisée de l’hypertension artérielle en fonction de différents profils. Il s’agit de permettre à la personne de se prendre en charge et d’avoir accès à des informations et à des conseils adaptés à son profil.

    Une population d'individus sera utilisée pour avoir une caractérisation des profils.

    Cette population sera représentée par des données « déidentifiées » issues de patients : âge, poids, taille, sexe, habitudes de vie, ATCD, facteurs de risques cardiovasculaires et autres données cliniques (changement de traitement, hospitalisation, consultations). Les objectifs de la thèse seraient de :

    • Détecter des données aberrantes, définir des indicateurs de qualité des données
    • Proposer des protocoles de suivi adaptés à différents cas (Diagnostic d’hypertension, Initiation/modification de traitement, Suivi Equilibré, Suivi insuffisamment contrôlé)
    • Définir des critères à suivre pour passer d’un protocole de suivi à un autre
    • Pouvoir alerter le patient en cas d’urgence et lui demander de contacter le SAMU

    Ensuite, une fois le type de protocole identifié, l'idée est de faire progresser ces profils afin d’affiner les conseils de prise en charge individuelle.

    Il s'agira de travailler avec des masses de données sur une population d'individus et d’utiliser des méthodes basées sur les systèmes multi-agents et l’apprentissage automatique. L’idée est d’utiliser les systèmes multi-agents et les systèmes experts pour combiner les résultats de plusieurs algorithmes d’apprentissage. Nous nous intéressons particulièrement aux algorithmes d’apprentissage profond (Deep Learning) et aux protocoles de négociation dans un système multi-agents.

    Colloque ESSI 2018 « Intelligence Artificielle pour l’Homme et sa santé » et Prix du meilleur poster

    Lors du colloque ESSI 2018 - Intelligence Artificielle pour l’Homme et sa santé, j’ai remporté le prix du meilleur poster pour ma communication intitulée «TransDeep: Transparent Deep ensemble method based on argumentation for classification». Le prix d’une valeur de 1000 € était attribué sous la forme d’une bourse permettant de soutenir la participation du lauréat à un congrès international.

    J’ai profité de ce prix pour m’inscrire à l’école d'été DeepLearn 2019, The 3rd International Summer School on Deep Learning, qui se tenait à Varsovie en Pologne du 22 au 26 juillet 2019.

    La bourse ESSI a permis de couvrir mes frais d’inscription, d’hébergement et de voyage.

    Présentation de DeepLearn2019

    DeepLearn 2019 est un événement de formation à la recherche ayant une portée mondiale visant à informer les participants des dernières avancées dans le domaine critique et en rapide évolution de l'apprentissage en profondeur. Il s’agit d’une branche de l’intelligence artificielle couvrant un large éventail de recherches en apprentissage automatique et d’innovations industrielles, qui fournit des algorithmes plus efficaces pour traiter des données à grande échelle en neurosciences, vision par ordinateur, reconnaissance de la parole, traitement du langage, interaction homme-machine, découverte de médicaments. , informatique biomédicale, soins de santé, systèmes de recommandation, théorie de l’apprentissage, robotique, jeux, etc. Des universitaires et pionniers renommés donneront des conférences et partageront leurs points de vue avec le public.

    Programme

    Trois conférences principales et 22 cours de quatre heures et demie, ont abordé les sujets les plus actifs et les plus prometteurs par des conférenciers exceptionnels. Une séance publique était organisée afin de donner aux participants l’occasion de présenter leurs travaux en 5 minutes. De plus, il y a eu deux sessions spéciales avec des profils industriels et de recrutement.

    Participants

    DeepLearn 2019 s’adresse aux étudiants, aux chercheurs et aux praticiens qui souhaitent se tenir au courant des développements récents et des tendances futures. Tous trouveront sûrement du succès à écouter et à discuter avec les principaux chercheurs, les chefs de file de l’industrie et les innovateurs. Le nombre de participants était de 1238.

    Les temps forts

    1- Session ouverte
    Une séance publique a réuni 5 minutes de présentations volontaires sur les travaux en cours de la part des participants.

    2- Session industrielle
    Une session était consacrée à des démonstrations de 10 minutes d'applications pratiques de l'apprentissage en profondeur dans l'industrie. Des entreprises intéressées à contribuer étaient invitées à présenter une démonstration de leurs projets industrielles.

    3- Session employeur
    Les entreprises à la recherche de personnel qualifié dans l’apprentissage en profondeur ont disposé d’un espace réservé aux contacts individuels. Ils ont produit une brève description de la société et des profils recherchés, qui était distribué aux participants avant la manifestation. Les participants intéressés ont pu discuter avec les recruteurs et ils ont pris leurs contacts pour des futurs collaborations.

    Focus sur les sessions qui m’ont le plus intéressée

    Sargur Srihari (University at Buffalo) : Explainable Artificial Intelligence

    Définitions d'explicabilité

    Les approches actuelles de l'IA basées sur l'apprentissage en profondeur effectuent extrêmement bien des tâches de perception et autres. Cependant, les méthodes optimisent la solution à chaque tâche, sans prendre en compte l’interprétabilité de la solution par les humains. Dans les tâches où le jugement humain est une composante nécessaire, comme en médecine et dans la salle d'audience, il est nécessaire que la décision du système d'IA soit accompagnée d'une explication. Nous allons décrire différents types d'explicabilité. Ensuite, passez en revue plusieurs approches d’explicabilité en IA, en insistant sur les approches probabilistes. Nous prendrons l'exemple de la comparaison médico-légale et montrerons comment un système d'apprentissage en profondeur hautement performant et un système explicable peuvent coexister.

    Besoin de l’explicabilité

    • La génération actuelle de systèmes d’IA offre d’énormes avantages, mais son efficacité sera limitée par l'incapacité de la machine à expliquer ses décisions et ses actions aux utilisateurs
    • Une IA explicable sera essentielle pour que les utilisateurs comprennent, fassent confiance et gèrent efficacement cette nouvelle génération de partenaires artificiellement intelligents


    Architecture de Deep Learning

    Objectif

    Passage d’un apprentissage opaque à un apprentissage bien expliqué.

    XAI créera une suite de techniques d’apprentissage automatique pour :

    • Produire des modèles plus explicables, tout en maintenant un niveau élevé des performances d’apprentissage (précision de la prévision, par exemple) ;
    • Permettre aux utilisateurs humains de comprendre, de faire confiance et de gérer efficacement la nouvelle génération de systèmes d’intelligence artificielle.

    Modes de l’explicabilité

    • Déclarations analytiques (didactiques) en langage naturel qui décrivent les éléments et le contexte soutenir un choix
    • Visualisations qui mettent directement en évidence des parties de la données brutes qui soutiennent un choix et permettre aux téléspectateurs de former leur propre compréhension perceptuelle
    • Des cas : qui invoquent des exemples spécifiques ou des histoires qui soutiennent le choix
    • Rejets de choix alternatifs (ou “idées fausses communes” dans pédagogie) qui plaident contre réponses moins préférées basées sur analyse, cas et données


    Mihaela van der Schaar (University of Cambridge) : Learning Engines for Healthcare: Using Machine Learning to Transform Clinical Practice and Discovery

    Dans cet exposé, l’auteur a discuté de l'apprentissage automatique récent, de la théorie de l'IA, des méthodes, des algorithmes et des systèmes développés dans notre laboratoire afin de comprendre les fondements de la santé et des maladies, de catalyser la recherche clinique, de soutenir les décisions cliniques par le biais de la médecine individualisée, d'informer la clinique passerelles, pour mieux utiliser les ressources, réduire les coûts et informer la santé publique

    Pour ce faire, il a créé ce qu’on appelle Learning Engine for Healthcare (LEH). Un LEH est un écosystème intégré qui utilise l'apprentissage automatique, l'IA et la recherche opérationnelle pour fournir des informations cliniques et des informations sur les soins de santé à toutes les parties prenantes (patients, cliniciens, hôpitaux, administrateurs). Contrairement au dossier de santé électronique, qui fournit un affichage statique, passif et isolé des informations, un LEH permet un affichage dynamique, actif, global et individualisé, y compris des alertes.

    Dans cet exposé, 3 étapes dans le développement de LEH sont citées:

    1. Construire un modèle complet qui intègre des processus non stationnaires, censurés de manière informelle et non stationnaires, échantillonnés de manière irrégulière, en corrélation temporelle, afin de comprendre et de prédire les trajectoires longitudinales des maladies.

    2. Établir les limites théoriques de l'inférence causale et utiliser ce qui a été établi pour créer une nouvelle approche permettant de mieux estimer les effets de traitement individualisés.

    3. Utilisation de Machine Learning pour automatiser la conception et la construction de pipelines complets d’algorithmes d’apprentissage pour la prévision, le dépistage, le diagnostic et le pronostic des risques.

    Issam El Naqa (University of Michigan) : Deep Learning for Biomedicine

    L'intelligence artificielle (IA) et les algorithmes basés sur l'apprentissage en machine / en profondeur (ML / DL) assistent à une formidable reprise des soins de santé avec la promesse de transformer la pratique de la médecine en réduisant ses coûts et en améliorant les résultats du traitement. La biomédecine est considérée comme le principal lieu de rassemblement des efforts d’IA / ML / DL dans un avenir prévisible, avec des applications allant de l’automatisation des processus au diagnostic, en passant par le pronostic, en utilisant l’imagerie et l’information génétique. Cependant, les progrès ont été plus lents que prévu. Dans ce cours, nous discuterons des applications actuelles de la DL en biomédecine et attirerons l'attention sur ses défis et perspectives spécifiques. Nous allons présenter des exemples d'applications et mettre en évidence les potentiels futurs.

    James Kwok (Hong Kong University of Science and Technology) : Compressing Neural Networks

    Les réseaux neuronaux profonds ont connu un succès énorme dans divers domaines, tels que la vision par ordinateur, la reconnaissance de la parole et le traitement du langage naturel. Bien que puissant, le grand nombre de poids du réseau entraîne des inefficacités spatiales et temporelles en matière de formation et de stockage. Récemment, des tentatives ont été faites pour réduire la taille du modèle. Ils comprennent la sparsification par élagage et la régularisation de la parcimonie, la quantification pour remplacer les poids et les activations avec un nombre réduit de bits, l’approximation de bas rang, la distillation et l’utilisation de structures plus compactes. Ces tentatives réduisent considérablement la taille du réseau et permettent de déployer des modèles approfondis dans des environnements aux ressources limitées, tels que les systèmes intégrés, les téléphones intelligents et d’autres périphériques portables.

    Maria-Florina Balcan (Carnegie Mellon University) : Data Driven Clustering

    Le clustering est un problème fondamental en science des données, utilisé dans une myriade d'applications. Malgré d'importantes recherches dans différents domaines, le regroupement reste un défi majeur. La plupart des approches traditionnelles pour concevoir et analyser des algorithmes de clustering se sont principalement concentrées sur un clustering unique, l'objectif étant de concevoir un algorithme pour cluster un puits de données unique. Malheureusement, d’un point de vue théorique, il existe d’importants résultats d’impossibilité pour de tels scénarios; Tout d'abord, dans la plupart des applications, il n'est pas clair quelle notion de similarité ou quelle fonction objectif utiliser pour récupérer un bon clustering pour un ensemble de données donné; deuxièmement, même dans les cas où la fonction de similarité et les objectifs peuvent être spécifiés naturellement, la résolution optimale des problèmes de regroupement combinatoire sous-jacents est généralement difficile à résoudre.

    Mark Gales (Université de Cambridge) : Use of Deep Learning in Non-native Spoken English Assessment

    Il existe une forte demande mondiale pour l'apprentissage de l'anglais en tant que langue supplémentaire. Les systèmes d'évaluation automatiques peuvent aider à répondre à ce besoin en réduisant les efforts d'évaluation humains et en permettant aux apprenants de suivre de manière indépendante leurs progrès, quand et où ils le souhaitent. Pour déterminer correctement le niveau d’anglais parlé du candidat, l’auto-marqueur doit être en mesure d’évaluer avec précision le niveau de capacité de l’apprenant à partir d’un discours spontané et incité. Cela doit être indépendant de la langue L1 et de la qualité d'enregistrement audio, ce qui varie considérablement, ce qui en fait une tâche ardue. Cette présentation a porté sur l’application de l’apprentissage en profondeur à l’évaluation spontanée de l’anglais parlé. Voici des exemples de tâches qui ont été discutées :

    i) systèmes ASR efficaces et combinaison d'ensemble pour l'anglais non natif ;
    ii) fonctions de « distance » téléphonique spécifiques à une tâche pour l'évaluation et la détection de la L1;
    iii) pertinence des réponses rapides pour la détection des réponses hors sujet;
    iv) détection et correction d’erreurs grammaticales pour l’apprenant anglais.

    Ces tâches font appel à diverses techniques d’apprentissage en profondeur, notamment : des modèles de séquence récurrents ; distillation d'ensemble de séquences (formation enseignant-élève); mécanismes d'attention; et les réseaux siamois.

    Bertrand Thirion (INRIA) : Understanding the Brain with Machine Learning

    Retrouvez l'intervention faite par Bertrand THIRION lors du colloque ESSI 2018 "Intelligence Artificielle pour l'homme et sa santé".

    Remerciements

    Je tiens à remercier du fond du cœur l'association Evry-Sénart Sciences et Innovation pour le professionnalisme dont l’équipe a fait preuve dans le cadre du Colloque ESSI 2018 - Intelligence Artificielle pour l’Homme et sa santé. Leur invitation à présenter mes travaux était une vraie opportunité et la bourse accordée au meilleur poster m’a permis de participer à un événement de grande envergure. Je suis sincèrement reconnaissante à ESSI de m’avoir permis d’assister à une formation pareille grâce à ce prix.

    Lien vers APPEL A POSTERS 2019 - Colloque ESSI "Réalité Virtuelle et Augmentée"