Humain et numérique en interaction

Du 9:00 - 17:20
au 8:30 - 16:30
CNRS - Délégation Paris Michel-Ange Auditorium Marie Curie, 3 rue Michel-Ange 75016 Paris

Le CNRS, à travers l’Institut des sciences de l’information et de leurs interactions (INS2I), organise les 31 janvier et 1er février 2019, au siège du CNRS, les journées Humain et numérique en interaction. L’objectif de cet événement est de réunir la communauté scientifique sur cette thématique transverse et d’offrir à un public intéressé mais non expert (industriels, politiques, étudiants…) des clés pour comprendre les dernières avancées de la recherche dans ce domaine.

Plus que 50 places, inscription obligatoire

Notre monde est numérique mais la société exprime une peur croissante face à des technologies mal comprises (l’intelligence artificielle par exemple, pour citer celle qui est aujourd’hui la plus emblématique). Pourtant, nous ne sommes pas "dépassés" par le numérique, les programmes informatiques ne réalisent que ce pour quoi ils ont été conçus, la technologie ne nous échappe pas pour suivre sa "volonté". Le numérique reste bien au service de l’Humain, en exécutant les tâches qui lui ont été assignées.

L’Humain est même au centre du numérique. La recherche contribue à construire les conditions d’une véritable coopération entre Humain et numérique, notamment, avec des travaux sur l’interaction avec les systèmes numériques et la prise en compte de modèles du comportement humain dans les algorithmes qui pilotent ces systèmes.

Ces nouvelles avancées montrent des interactions variées entre Humain et numérique et posent des questions éthiques cruciales qui font également l’objet de travaux de recherche. Il faut intégrer, dès le départ des recherches et du développement d’applications, une démarche fondée sur ces réflexions éthiques. Il est également essentiel que les citoyens puissent se saisir de ces problématiques. Ce n’est qu’à ces conditions qu’une interaction harmonieuse et bénéfique entre Humain et numérique pourra se développer.

Les journées Humain et numérique en interaction des 31 janvier et 1er février 2019 permettront de répondre à ces interrogations en présentant l’état des recherches dans des domaines aussi variés que l’interaction avec les robots, les agents conversationnels, le dialogue en langage naturel, ou encore les nouveaux modes d’interaction avec les machines.

Jeudi 31 janvier 2019

9h - 10h : Accueil

Pour des raisons de sécurité, il vous sera demandé à l’entrée une pièce d’identité (carte nationale d’identité, passeport ou permis de conduire). Seul le dépôt d’une de ces trois pièces officielles vous permettra d’accéder à l’auditorium.

10h - 10h30 : Ouverture des journées par Antoine Petit

Président-directeur général du CNRS

10h30 - 11h10 : L'IA sonne-t-elle le glas de l'interaction sociale ? Justine Cassell

Résumé

À venir

Intervenante

Justine Cassell

Justine Cassell est vice-doyenne chargée de la Technologie, Stratégie et Impact pour la Faculté d’Informatique à Carnegie Mellon Université. Elle a reçu un double doctorat en psychologie et en linguistique à l’Université de Chicago, et s'est lancée dans l'informatique lors d'une année sabbatique en 1993-1994 à l'université de Pennsylvanie, où elle a dirigé le groupe de chercheurs qui a créé le tout premier agent virtuel conversationnel. L'article issu de ces recherches, publié à SIGGRAPH en 1994, a reçu le prix de l’article le plus influent décerné par IFAAMAS (la Fondation internationale pour les agents autonomes et les systèmes multiagents AAMAS) en 2017.

Justine Cassell a également reçu les prix Edgerton du MIT,  prix Henry et Bryna David des National Academies of Sciences, et le prix Woman of Vision de I'Institut Anita Borg. Elle est fellow de l’ACM, Royal Society of Edinburgh, et l’AAAS. En 2017-2018 elle a passé une année sabbatique à Paris, lauréate de la Chaire Blaise Pascal de l’ENS, ainsi que d’une Chaire Sorbonne de Professeur Invitée. Depuis 8 ans, Justine Cassell parle tous les ans au Forum Économique Mondiale à Davos à propos de l'IA et l'interaction humain-machine.

11h10 - 11h40 : Pause

11h40 - 12h20 : Interagir grâce à l'informatique émotionnelle ? Catherine Pelachaud

Résumé

Les agents conversationnels animés sont des entités logicielles capables de communiquer verbalement et non-verbalement avec des interlocuteurs humains. Des modèles computationnels ont été développés pour leur permettre de communiquer des intentions et émotions en utilisant parole, gestes, regard, expressions du visage. À travers leur comportement, ils peuvent montrer leur engagement, créer des relations sociales, montrer de l’empathie, etc. Durant cette présentation j’introduirai les agents conversationnels animés. J’expliquerai le besoin de les doter de compétences socio-émotionnelles, comment celles-ci peuvent être modélisées en prenant en compte les besoins et préférences des utilisateurs. Je parlerai des modèles existants en présentant les avancées techniques, des modèles se basant sur une représentation cognitive aux modèles d’apprentissage.

Intervenante

Catherine Pelachaud

Catherine Pelachaud est directrice de recherche CNRS à l’Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université). Elle a reçu sa thèse de PhD en image de synthèse à l’University of Pennsylvania, Philadelphie, USA en 1991. Ses intérêts de recherche portent sur les agents conversationnels socio-émotionnels, l’informatique émotionnelle et l’interaction humain-agent. Depuis de nombreuses années et à travers des projets européens et nationaux, elle et ses collaborateurs ont travaillé à développer la plateforme d’agent conversationnel Greta. Elle a participé et participe à plusieurs projets européens et nationaux portant sur la communication multimodale, les agents conversationnels animés crédibles, les émotions et les comportements sociaux. Elle est éditrice associée de plusieurs journaux dont IEEE Transactions on Affective Computing, ACM Transactions on Interactive Intelligent Systems, et International Journal of Human-Computer Studies. Elle a co-édité plusieurs livres sur les agents virtuels et les systèmes d’informatique émotionnelle. Elle a aussi participé à l’organisation de plusieurs conférences internationales sur les agents virtuels et sur l’informatique émotionnelle. Elle a reçu le prix ACM – SIGAI Autonomous Agents Research Award en 2015 et a été honorée du titre de docteur Honoris Causa de l’Université de Genève en 2016. Son article Siggraph’94 a reçu le prix de l’article le plus influent décerné par IFAAMAS (la Fondation internationale pour les agents autonomes et les systèmes multiagents AAMAS) en 2017.

12h20 - 13h : Votre argument est-il solide ? Leila Amgoud

Résumé

La présentation portera sur la notion d’argument, c’est-à-dire un ensemble de propositions qui justifie une affirmation. Je parlerai de comment évaluer les forces et les faiblesses d’un argument et de ce qu’est un argument solide. Ensuite, je montrerai comment définir des systèmes explicables d’aide à la décision basés sur des arguments.

Intervenante

Leila Amgoud

Leila Amgoud est directrice de recherche CNRS à l’Institut de recherche en informatique de Toulouse (IRIT - CNRS/Université Toulouse 1 Capitole/Université Toulouse 2 Jean Jaurès/Université Toulouse 3 Paul Sabatier/INP Toulouse) où elle codirige l’équipe ADRIA (Argumentation, Décision, Raisonnement, Incertitude, Apprentissage). Elle a obtenu une thèse en Intelligence Artificielle en 1999 à l’université Paul Sabatier. Elle est nommée Fellow de l’EurAI en 2014 pour ses travaux sur la théorie de l’argumentation. Elle développe des modèles basés sur des arguments pour résoudre différents problème comme le raisonnement avec des informations incertaines et/ou conflictuelles, décision sous incertitude, négociation, classification, et fusion d’informations provenant de différentes sources.

13h - 14h30 : Déjeuner libre

14h30 - 15h10 : Comment les robots assistants et coéquipiers prennent-ils des décisions ? Rachid Alami

Résumé

Cet exposé aborde un ensemble de problèmes décisionnels essentiels auxquels est confronté le robot cognitif et interactif qui partage l'espace et la tâche avec un humain. Nous adoptons une approche constructive basée sur l'identification et la mise en œuvre de compétences collaboratives élémentaires inspirées des concepts de l'action conjointe. Le système est complet dans la mesure où il vise à mettre en œuvre un ensemble cohérent de capacités articulées de manière à ce que le contrôleur du robot puisse effectivement conduire, de manière flexible et acceptable par l’humain, une résolution de problèmes interactive et une réalisation de tâches collaboratives humain-robot. Ces capacités comprennent le raisonnement géométrique et l’évaluation de la situation reposant essentiellement sur la prise de perspective et l’exploitation de la connaissance de chaque agent (humain et robot) dans un modèle cognitif distinct et une planification des tâches prenant en compte explicitement l’humain, l’estimation de son état mental, ses besoins et ses préférences.

Intervenant

Rachid Alami

Rachid Alami est directeur de recherche CNRS, responsable du groupe Robotique et interaction (RIS) au Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS-CNRS). Il a assuré pendant 8 ans la coordination département Robotique du LAAS.
Rachid Alami a obtenu un diplôme d'ingénieur en informatique de l'ENSEEIHT en 1978, un doctorat en robotique en 1983 de l'Institut National Polytechnique  de Toulouse et une Habilitation à Diriger les Recherches (HDR) en 1996 de l'Université Paul Sabatier.

Il a assumé des responsabilités importantes dans plusieurs projets de recherche nationaux, européens et internationaux (EUREKA : projets FAMOS, AMR et I-ARES, ESPRIT : MARTHA, PROMOTION, ECLA, IST : COMETS, projets IST FP6 COGNIRON, URUS, PHRIENDS et projets FP7 CHRIS, SAPHARI, ARCAS, SPENCER, H2020 MuMMER France : ARA, VAP-RISP pour les rovers planétaires, PROMIP, 5 projets ANR, Cluster de Robotique Interactive Taiwan-France). Il a dirigé et/ou codirigé 46 thèses de doctorat donc 40 ont été soutenues.

Ses principales contributions à la recherche portent sur les architectures décisionnelles et de contrôle de robot autonomes,  la planification de tâches et de mouvements, la coopération multi-robots et l'interaction homme-robot.

15h10 - 15h50 : Comment allons-nous communiquer avec les robots ? Peter Ford Dominey

Résumé

L’un des principaux résultats des neurosciences cognitives modernes est que la capacité de l’homme à comprendre et à interagir dans le monde repose sur l’expérience, avec d’autres, dans le monde physique et social. Un deuxième résultat, plus ancien et moins exploité, de la psychologie du développement démontre le rôle crucial du récit dans l’organisation de cette expérience et la possibilité pour l’enfant en développement de donner un sens à l’expérience. Cela implique que la capacité future des robots à comprendre et à interagir socialement avec les humains reposera sur des systèmes de mémoire qui leur permettront d’accumuler et d’intégrer de l’expérience sur de longues périodes d’interaction, et d’être en mesure de l’enrichir grâce aux commentaires narratifs de l’homme.
Nous avons commencé à résoudre ce problème en développant des systèmes de mémoire autobiographiques qui codent des expériences d’interaction étendues entre robots et humains, et permettent la consolidation et l’extraction de la sémantique à partir de cette expérience inspirée des systèmes de mémoire humaine. Plus récemment, nous avons introduit une fonctionnalité de langage narratif, telles que des représentations basées sur des graphes, appelées modèles de situation. Ces modèles de situation sont construits à partir d’expériences codées dans la mémoire autobiographique, et peuvent ensuite être enrichis par une narration du partenaire humain, permettant ainsi au robot de mieux comprendre les relations causales invisibles entre les états de motivation mentale et les actions qui en résultent.
Cette compréhension se reflète dans la capacité du robot à générer une narration simple, ainsi qu’à la comprendre. En retour, nous montrons comment ces systèmes de mémoire améliorés pourraient être utilisés par des humains dont la mémoire s’est détériorée au cours du vieillissement normal et pathologique.

Intervenant

Peter Ford Dominey

Peter Ford Dominey est directeur de recherche CNRS au sein de l’unité Inserm Cognition, Action, and Sensorimotor Plasticity de Dijon. Il a obtenu son BA en 1984 à la Cornell University en psychologie cognitive et en intelligence artificielle. De 1984 à 1986, il a été ingénieur informaticien chez Data General et, de 1986 à 1993, ingénieur système chez NASA / JPL / CalTech. En 1989 et 1993, il obtint respectivement le M.Sc. et doctorat en informatique de l’University of Southern California (USC), développement de modèles de réseaux neuronaux du système cortico-striatal, conduisant au développement moderne du reservoir computing. En 1997, il est devenu chercheur titulaire et, en 2005, directeur de recherche au CNRS. Il développe des systèmes cognitifs motivés par la neurophysiologie. Il discute avec des robots, y compris l’iCub, et coopère avec eux depuis plus de quinze ans.

 

15h50 - 16h20 : Pause

16h20 - 17h20 : Informatique et robotique, nouveaux outils de la psychologie de l’enfant ? David Cohen et Mohamed Chetouani

Résumé

Laissant de côté l’exploration des grandes bases de données de santé mentale, l’IA, la robotique et les méthodes computationnelles sont aussi une révolution dans le champ de la psychopathologie du développement. Nous illustrerons comment l’utilisation de méthodes computationnelles pour l’analyse et le traitement de signaux sociaux ont permis un changement de paradigme permettant de « voir ce que l’on ne peut pas voir ». À partir de sources variées (films familiaux ; expériences en laboratoire), nous montrerons comment ces méthodes ont été utilisées pour évaluer la dynamique interactive entre partenaires (bébé, enfant, parent, agent ou robot) en contexte pathologique (autisme, mère négligente) ou non. Ces méthodes permettent également la caractérisation des échanges interpersonnels et des signaux sociaux échangés. Enfin, ces méthodes ont été employées pour introduire de nouvelles approches comme celle de la robotique développementale.

Nous terminerons cette présentation par un rapide survol des possibilités applicatives en particulier dans le champ de l’éducation spécialisée et des jeux sérieux.

Intervenants

David Cohen

David Cohen est professeur à Sorbonne Université et chef du service de psychiatrie de l’enfant et de l’adolescent de l’hôpital Pitié-Salpêtrière à Paris. Il est également membre de l’Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université). Son groupe dirige des programmes de recherche dans le domaine du trouble du spectre autistique et des troubles d’apprentissage, de la schizophrénie à début précoce, de la catatonie et des troubles sévères de l’humeur. Il soutient une vision développementale et plastique de la psychopathologie infantile, tant au niveau de la compréhension que du traitement. Son équipe propose une approche multidisciplinaire et collabore avec des biologistes moléculaires, des méthodologistes, des psychologues, des sociologues et des ingénieurs. En tant que membre de l’ISIR, il collabore avec plusieurs ingénieurs de l’équipe Interaction et Robotiques Sociales. Il a été président du congrès de la Société Internationale de Psychiatrie de l’Enfant et de l’Adolescent (IACAPAP) organisé à Paris en 2012. Outre son travail de psychiatre, il a également des activités artistiques.

 

Mohamed Chetouani

Mohamed Chetouani est responsable du groupe de recherche IMI2S (Interaction, intégration multimodale et signal social) à l’Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université). Il est actuellement Professeur en traitement du signal et apprentissage machine pour l’interaction humain-machine. Ses activités de recherche couvrent les domaines du traitement du signal social, de la robotique sociale et de l’apprentissage automatique interactif avec des applications en psychiatrie, psychologie, neurosciences sociales et éducation. En 2016, il était professeur invité au Human Media Interaction de l’Université de Twente (Hollande). Il est directeur adjoint du laboratoire d’excellence SMART Human / Machine / Human Interaction. Il coordonne le programme d’autonomie de l’Institut d’Ingénierie de la Santé de Sorbonne Université. Depuis 2018, il est le coordinateur du réseau européen de formation ANIMATAS H2020 Marie Sklodowska Curie.

Vendredi 1er février 2019

8h30 - 9h10 : Accueil

Pour des raisons de sécurité, il vous sera demandé à l’entrée une pièce d’identité (carte nationale d’identité, passeport ou permis de conduire). Seul le dépôt d’une de ces trois pièces officielles vous permettra d’accéder à l’auditorium.

9h10 - 9h50 : IA et robotique : quelle éthique ? Raja Chatila

Résumé

En partant des fondements scientifiques et technologiques de l’intelligence artificielle et de la robotique, qui permettront d’en cerner les capacités et les limites, on identifiera des enjeux sociétaux tels que les décisions autonomes des machines, l’utilisation de robots sociaux, ou l’impact sur le travail. Les questions éthiques que posent le développement et l’usage des systèmes autonomes et intelligents dans la société humaine seront soulevées et discutées.

Intervenant

Raja Chatila

Raja Chatila est professeur de robotique, d’intelligence artificielle et d’éthique à Sorbonne Université où il dirige le laboratoire d’excellence SMART sur les interactions humain-machine. Il est l'ancien directeur de l’Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université). Il travaille sur plusieurs problématiques de la robotique autonome et interactive dont la perception, la prise de décision, les architectures décisionnelles et cognitives, l’apprentissage et l’interaction humain-robot. Il est auteur de plus de 150 publications sur ces sujets. Il est membre de la Commission de réflexion sur l’Ethique de la Recherche sur les Sciences et Technologies du Numérique (CERNA) et président de la "IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”.

9h50 - 10h30 : Interfaces Cerveau-Ordinateur, entre science-fiction et réalité ? Marco Congedo

Résumé

Les interfaces cerveau-ordinateur (ICO) permettent à l’homme de communiquer avec des dispositifs électroniques sans avoir recours aux voies musculaires, mais directement par l’interprétation des signaux cérébraux. Elles trouvent aujourd’hui une place grandissante dans les medias, soutenues par les mouvements transhumanistes, selon qui la technologie des ICO permettra d’accroître les capacités de l’homme pour lui permettre de subsister face à la puissance croissante de l’intelligence artificielle. Pourtant, initialement les ICO ont été développées pour remédier aux difficultés de communication de l’homme suite à des troubles moteurs graves et les ICO restent très limitées quant au débit d’information transmissible. Dans cette intervention, nous allons considérer les limitations des ICO courantes et leurs perspectives. Nous allons aussi souligner le rôle fondamental du traitement du signal dans cette technologie.

Intervenant

Marco Congedo

Marco Congedo est chargé de recherche CNRS au laboratoire Grenoble Image, Parole, Signal, Automatique (GIPSA-lab - CNRS/Grenoble INP/Université Grenoble Alpes) depuis 2007. Il a obtenu en 2003 le titre de Docteur en Psychologie Biologique et Statistiques de l’Université du Tennessee, Knoxville. Entre 2003 et 2006, il a travaillé comme post-doctorant à l’INRIA et France Télécom R&D. Marco Congedo s’intéresse à l’électroencéphalographie (EEG) humaine, particulièrement aux applications temps-réel, telles que les interfaces cerveau-ordinateur et le neurofeedback. Sa recherche concerne les outils mathématiques pour l’analyse et la classification des données EEG, notamment les solutions inverses, la séparation aveugle de sources et la géométrie riemannienne. Sur ces sujets, il a participé à plus de 120 publications scientifiques.

10h30 - 11h10 : Mettre les sons en mouvement ? Frédéric Bevilacqua

Résumé

Les médias numériques peuvent être désormais facilement modifiés, en temps-réel, en interactions avec nos gestes et nos mouvements. Dans nos recherches, nous explorons précisément ces nouvelles possibilités d’interaction entre nos corps, et les sons et la musique. Cela permet de créer de nouveaux usages, comme des instruments de musique collectifs et ludiques ou des systèmes de rééducation qui utilisent le son et la musique pour aider les patient.e.s à réapprendre leurs gestes. Nos systèmes interactifs, qui mettent en relation gestes et sons, sont actuellement expérimentés en milieu hospitalier, dans des écoles, ou encore lors de concerts participatifs où les smartphones connectés du public servent de capteurs de mouvement et de haut-parleurs distribués. Nous développons donc des systèmes conçus à la fois pour des non-spécialistes et des experts, et nous nous intéressons particulièrement aux possibilités d’apprentissage du mouvement - ou de la musique - que ces systèmes offrent.

Intervenant

Frédéric Bevilacqua © Deborah Lopatin

Frédéric Bevilacqua est Directeur de recherche Ircam, responsable de l’équipe de recherche Interaction Son Musique Mouvement au laboratoire Sciences et Technologies de la Musique et du Son (STMS - CNRS/Ircam/Ministère de la culture et de la communication/Sorbonne Université). Ses recherches concernent l’étude des interactions entre son et mouvement, le design de systèmes interactifs basés sur le geste et les nouvelles interfaces pour la musique.

Durant sa formation il poursuit en parallèle des études scientifiques et musicales. Il obtient un master en physique puis, en 1998 un doctorat en optique biomédicale de l’École Polytechnique Fédérale de Lausanne (EPFL) et reçoit le 1er prix de la Société Française des Lasers Médicaux. Il étudie également la musique au Berklee College of Music à Boston. De 1999 à 2003, il est chercheur au Beckman Laser Institute de l’Université de Californie Irvine (UCI). En octobre 2003, il rejoint l’Ircam pour développer un programme de recherche sur la captation et l’analyse du geste musical et dansé.

Il est co-auteur de plus de 130 articles scientifiques ou actes de congrès et de 5 brevets. En 2006, il est co-chair de la conférence internationale New Interfaces for Musical Expression. Ses projets de recherche et installations interactives sont présentés internationalement (au Centre Pompidou, MoMA (USA), ZKM (Allemagne), EMPAC (USA), YCAM (Japon). En tant que coordinateur du projet “Interlude", il reçoit en 2011 le 1er Prix au concours Guthman des nouveaux instruments (Georgia Tech) ainsi que le prix ANR du Numérique (catégorie impact sociétal 2013).

11h10 - 11h40 : Pause

11h40 - 12h20 : Aura-t-on encore besoin d’interagir avec des ordinateurs ? Michel Beaudouin-Lafon

Résumé

Les interfaces graphiques, qui ont été inventées dans les années 70, ont été un facteur clé de la diffusion des technologies numériques : aujourd’hui, plusieurs milliards de personnes utilisent quotidiennement des interfaces graphiques sur leur ordinateur de bureau, leur portable, leur smartphone ou tablette. De nouvelles formes d’interaction commencent cependant à atteindre le grand public, après des décennies de recherche, comme la parole avec les assistants vocaux ou la réalité virtuelle immersive avec les casques de visualisation. D’autres, comme l’interaction cerveau-ordinateur, font des progrès réguliers. Dans le même temps, les avancées de l’intelligence artificielle permettent d’automatiser un nombre croissant de tâches qui nécessitent peu, ou plus, d’intervention humaine. La voiture autonome, pourtant encore loin d’être une réalité, en est l’exemple le plus emblématique. Les systèmes de recommandation, destinés à aider — ou influencer — nos décisions, en sont, eux, l’exemple le plus répandu.

Ces évolutions peuvent faire penser que les systèmes numériques vont nécessiter de moins en moins d’interaction : la machine fera pour nous ou sans nous, de manière complètement autonome ou avec un minimum d’interactions. Bien que je voie de nombreux avantages à l’automatisation de tâches fastidieuses ou répétitives, je suis aussi convaincu que cette utilisation de l’ordinateur qui se limiterait à reproduire des comportements humains est limitée, et même porteuse de dangers. En se substituant à l’humain pour les tâches “simples” mais en se reposant sur lui encore pour les situations d’urgence — comme dans le cas de la voiture semi-autonome — on met l’humain dans une situation paradoxale : alors que la technologie lui permet d’”oublier” ses compétences de conducteur, elle l’oblige aussi à pouvoir réagir en expert à une situation d’urgence.

Pour briser ce paradoxe, il faut plus, pas moins d’interaction. Il faut créer des systèmes dans lesquels l’humain reste acteur, et non spectateur. Il faut une interaction plus riche, qui développe l’expertise, et non pas plus simple, qui nous rend esclave de la technologie. Il faut que l’ordinateur augmente nos capacités humaines, pas qu’il les trivialise. Si les technologies numériques peuvent nous débarrasser de tâches fastidieuses et répétitives, il faut aussi qu’elles nous permettent de nous dépasser en développant notamment nos capacités créatives. Au lieu de mettre, selon l’expression consacrée, "l’humain dans la boucle”, il faut mettre "l’ordinateur dans la boucle”, en créant de réels partenariats humain-machine. Dans cet exposé je présenterai cette vision de systèmes interactifs au service de l’expertise humaine.

Intervenant

Michel Beaudouin-Lafon

Michel Beaudouin-Lafon est professeur d’informatique (classe exceptionnelle) à l’Université Paris-Sud, membre du Laboratoire de Recherche en Informatique (LRI - CNRS/Université Paris-Sud) et membre senior de l’Institut Universitaire de France. Il a été directeur du Laboratoire de Recherche en Informatique (LRI) de 2002 à 2009, professeur invité à l’Université de Stanford de 2010 à 2012, et il est actuellement responsable de l’équipe HCC (Human-Centered Computing) du LRI et responsable du département STIC (Science et Technologie de l’Information et de la Communication) de l’Université Paris-Saclay. Sa recherche porte sur l’Interaction Homme-Machine, en particulier les nouvelles techniques d’interaction, les usages collaboratifs de l’informatique et l’ingénierie des systèmes interactifs. Il est lauréat d’une Advanced Grant de l’ERC et responsable scientifique de l’Equipement d’Excellence Digiscope. Il est membre de l’ACM SIGCHI Academy, ACM Distinguished Speaker, auteur ou co-auteur de plus de 180 publications et a dirigé 27 thèses soutenues. Il est membre du plusieurs comités éditoriaux, a participé à de nombreux comités de programmes et était Program Co-Chair de la conférence ACM CHI 2013 (3500 participants, 1000 présentations). Il est membre du conseil scientifique de l’INS2I au CNRS et expert pour l’évaluation de la recherche pour de nombreuses agences. Il a fondé l’Association Francophone de l’Interaction Homme-Machine (AFIHM), et est actif au sein de l’ACM. Il a reçu l’ACM SIGCHI Lifetime Service Award en 2015.

12h20 - 13h : Un robot au bloc opératoire : pour quoi faire ? Jocelyne Troccaz

Résumé

Les Gestes Médico-Chirurgicaux Assistés par Ordinateur (GMCAO) visent à fournir aux cliniciens des outils informatisés pour améliorer les interventions diagnostiques ou thérapeutiques. Sur la base de modèles, de connaissances a priori et de données multimodales (parmi lesquelles de nombreuses images), des interventions médicales peuvent être planifiées et simulées. Des systèmes de guidage - robots ou « GPS chirurgicaux » - permettent une exécution conforme à ce qui a été planifié. Au-delà de chaque cas spécifique, le guidage par ordinateur et plus généralement, l’informatisation grandissante des hôpitaux, facilitent également la constitution de bases de données cliniques (données de patients et processus mis en œuvre). Celles-ci peuvent tout autant contribuer à la formation des jeunes cliniciens qu’à la mise en place d’outils de monitorage du geste et d’aide contextuelle. Elles peuvent aussi servir la décision médicale patient-spécifique à partir de statistiques sur les populations. Dans cet exposé, nous décrirons les évolutions de ce domaine né il y a trois décennies, à travers quelques travaux exemplaires d’une recherche interdisciplinaire menée en étroite collaboration avec des équipes cliniques et en lien avec le monde industriel.

Intervenante

Jocelyne Troccaz © Délégation PMA

Jocelyne Troccaz est directrice de recherche CNRS au laboratoire Techniques de l’Ingénierie Médicale et de la Complexité - Informatique, Mathématiques et Applications de Grenoble (TIMC-IMAG - CNRS/Université Grenoble Alpes) depuis 1998. Elle a soutenu sa thèse en informatique à l’Institut National Polytechnique de Grenoble en 1986 ainsi que son Habilitation à diriger les recherches en 1993 dans la même université. Elle a été enseignant-chercheur de 1984 à 1988 à l’Université Joseph Fourier de Grenoble. Elle est entrée au CNRS en tant que Chargée de Recherche en 1988.
Jusqu’en 1990, son activité de recherche concernait la robotique et en particulier la programmation automatique des robots pour des applications industrielles et spatiales. Elle a changé de thématique en 1990 pour se tourner vers les applications médicales. Son activité de recherche personnelle dans le laboratoire TIMC-IMAG concerne principalement la robotique et l’imagerie médicales. Par ailleurs elle est ou a été responsable de différents projets de recherche clinique concernant principalement la radiothérapie, la chirurgie cardiaque, la chirurgie urologique, l’orthopédie. Elle a près de 250 publications et une dizaine de brevets internationaux. Plusieurs de ses travaux ont été industrialisés et sont utilisés en clinique.
De 1996 à 2013, elle a été responsable de l’équipe GMCAO (Gestes Médico-Chirurgicaux Assistés par Ordinateur) du laboratoire TIMC-IMAG dont elle a été directrice adjointe de 2006 à 2016. Elle coordonne le labex national CAMI depuis 2016. Elle a été élue « MICCAI fellow » en 2009 et « IEEE Fellow » en 2018, a été lauréate d’un Contrat Hospitalier de Recherche Translationnelle de l’INSERM de 2010 à 2013 avec le service d’urologie du CHU de Grenoble. En 2013 elle a reçu le Prix de l’Académie Nationale de Chirurgie et est membre de l’Académie Nationale de Chirurgie depuis 2014. Elle a reçu la médaille d’argent du CNRS en 2015, et la Légion d’honneur en 2016.

13h - 14h30 : Déjeuner libre

14h30 - 15h10 : Peut-on comprendre comment fonctionne la parole grâce à des maths et de l’informatique ? Jean-Luc Schwartz

Résumé

Le fonctionnement de la parole humaine reste en partie mystérieux. Nous savons beaucoup de choses, bien sûr, sur le fonctionnement de la voix pour parler, de l’oreille pour entendre, sur la manière dont les langues humaines sont organisées, sur la structure du cerveau qui doit gérer ces informations. Mais de grands champs de recherche restent ouverts, à la fois dans le domaine des sciences du langage (quelles sont les unités du langage, pourquoi les langues humaines diffèrent, qu’ont-elles en commun ? Comment chaque individu s’approprie le langage à sa façon, qu’est-ce que les locuteurs d’une langue ont de commun et de différent ?), mais aussi dans le domaine du cerveau et des sciences cognitives, autour de questions clés comme la multisensorialité (on perçoit la parole de l’autre par l’oreille, mais aussi par l’œil, voire par le toucher !) et les neurones miroirs (on peut percevoir l’autre en l’imitant mentalement, et percevoir implique toujours une action mentale).
Or toutes ces questions profondes et complexes, qui sont abordées par les linguistes, les psychologues et les neuroscientifiques par l’observation et l’expérimentation, peuvent aussi être abordées par la modélisation mathématique, les simulations informatiques, et globalement, les sciences de l’information. J’en donnerai quelques illustrations à partir de nos propres travaux à Grenoble sur la modélisation bayésienne de la communication parlée, avec des exemples tirés de l’étude de la perception audiovisuelle de la parole, des interactions entre perception et production de la parole, et de la simulation de l’émergence des systèmes vocaliques et consonantiques dans les langues du monde.

Intervenant

Jean-Luc Schwartz © GIPSA-Lab / Isabelle Maugis

Jean-Luc Schwartz est directeur de recherche CNRS au laboratoire Grenoble Image, Parole, Signal, Automatique (GIPSA-lab - CNRS/Grenoble INP/Université Grenoble Alpes). Il effectue depuis 30 ans des recherches sur la parole et la cognition, de l’audition à la multisensorialité, de la perception aux interactions sensori-motrices, de la fusion au liage et à l’analyse de scènes, de la communication en ligne à l’émergence du langage articulé. Ces recherches développées entre sciences et traitement de l’information, sciences du langage et sciences de la vie ont débouché sur la proposition de théories et de modèles computationnels qui permettent de proposer un cadre intégrateur des mécanismes de la communication parlée.
Jean-Luc Schwartz a dirigé une unité mixte de recherche, l’Institut de la communication parlée, de 2003 à 2007. En 2009, il a mis sur pied et dirige depuis lors une fédération de laboratoires du CNRS, le Pôle Grenoble Cognition, soutenue aussi par les universités grenobloises et par Inria, qui regroupe et anime les recherches en sciences cognitives sur le site, autour des travaux de 40 équipes et 200 chercheurs de disciplines variées. Il a reçu la médaille d’argent du CNRS en 2017.

15h10 - 15h50 : Vers la compréhension automatique des langues ? François Yvon

Résumé

Les progrès rapides des méthodes d’apprentissages basées sur des réseaux de neurones "profonds" ont permis des avancées tangibles dans de nombreux domaines de l’intelligence artificielle. Dans le domaine du traitement automatique des langues, ces avancées se sont concrétisées par la mise à disposition du grand public d’une nouvelle génération d’agents artificiels intelligents, avec lesquels il est aujourd’hui possible d’interagir par la voix ou par l’écrit pour accomplir des tâches plus ou moins complexes, laissant penser que la compréhension automatique du langage humain est un problème résolu. Cet exposé vise à présenter les méthodes qui sous-tendent ces avancées pour montrer comment elles permettent de surmonter certaines difficultés que posent les langues humaines. Il vise également à analyser les limitations actuelles de ces systèmes et à lister quelques grands défis qui restent à relever pour progresser vers une meilleure intercompréhension mutuelle entre humain et machine.

Intervenant

François Yvon © Laurent Pointal

François Yvon est professeur d’informatique à l’Université Paris-Sud depuis 2007 ; il conduit ses recherches au sein du groupe "Traitement du Langage Parlé" du Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI - CNRS), laboratoire dont il a pris la direction en juillet 2013. Ses travaux récents s’intéressent principalement à la traduction automatique par des méthodes statistiques et neuronales - et plus généralement à l’apprentissage automatique appliqué à des données langagières multilingues, qu’elles soient écrites ou orales. Il anime sur ce thème les activités d’un collectif composé d’une dizaine de chercheurs et doctorant.e.s. François Yvon a été responsable de nombreux projets nationaux et impliqué également dans des collaborations internationales dans le cadre de projets européens. Il est membre du bureau exécutif du réseau Européen Meta-NET, ainsi que point de contact français du programme européen CEF-ELRC.
Antérieurement, François Yvon a été, entre 1996 et 2007, maître de conférences en informatique à Télécom ParisTech, ainsi que visiteur scientifique au sein du groupe "Superhuman speech recognition" du centre de recherche d’IBM à Yorktown Heights (NY, USA) entre 2001-2002. Il est l’auteur d’une trentaine d’articles dans des journaux scientifiques ainsi que d’environ 150 communications dans des conférences internationales sur sur les thèmes du traitement automatique des langues et de l’apprentissage automatique, appliqués à la reconnaissance et à la synthèse vocale, à la traduction automatique, à la correction automatique ou encore à la fouille de texte.

15h50 - 16h30 : De l’humain dans les marchés virtuels ? Sihem Amer-Yahia

Résumé

Les marchés virtuels constituent une destination idéale pour embaucher des gens en ligne. Ils incluent des plateformes de crowdsourcing, Amazon Mechanical Turk et Prolific Academic, et les plateformes de freelancing, Qapa et MisterTemp en France et TaskRabbit et Fiverr aux États-Unis. Dans le crowdsourcing, les travailleurs sont impliqués dans des micro-tâches comme les sondages ou l’annotation de sentiments dans les tweets. Sur les plateformes de freelancing, les opportunités d’embauche sont mises à la disposition des travailleurs sous la forme de micro-gigs tels que "Créer un CV accrocheur" ou "Réparer ma douche".

Avec le nombre croissant de travailleurs et de tâches, l’utilisation d’algorithmes pour trouver des tâches et des travailleurs devient nécessaire. Nous proposons une discussion autour des facteurs qui affectent la conception de ces plateformes et des algorithmes sur les marchés virtuels. En particulier, il s’agira de mettre en avant le rôle de la motivation, l’affinité entre les individus, et la discrimination algorithmique.

Intervenante

Sihem Amer-Yahia © Divesh Srivastava

Sihem Amer-Yahia est directrice de recherche CNRS au Laboratoire d’Informatique de Grenoble (LIG, CNRS/Inria/Grenoble INP/Université Grenoble Alpes) où elle dirige l’équipe SLIDE. Sa recherche est autour de la gestion et la fouille de données à grande échelle. Sihem Amer-Yahia a été auparavant chercheuse au QCRI, Yahoo ! et at&t Labs. Elle a été membre du ACM SIGMOD Executive Board et du VLDB Endowment. Elle est éditrice en chef du VLDB Journal. Sihem Amer-Yahia a été PC chair de VLDB 2018 et Tutoriel chair de TWC 2018. Elle est actuellement chair de workshops TWC 2019 et de tutoriels de ICDE 2019. Sihem Amer-Yahia a obtenu sa thèse en Informatique en 1999 de l’Université d’Orsay et l’INRIA et son diplôme d’Ingénieur de l’INI à Alger.