
Sommaire
Perception multimodale et interaction sociable
Date de création :
16.01.2019Auteur(s) :
Dominique VAUFREYDAZPrésentation
Informations pratiques
Droits réservés à l'éditeur et aux auteurs. Document libre, dans le cadre de la licence Creative Commons (http://creativecommons.org/licenses/by-nd/2.0/fr/), citation de l'auteur obligatoire et interdiction de désassembler (paternité, pas de modification)
Description de la ressource
Résumé
Au cours des deux dernières décennies, de très nombreux progrès ont été faits dans le domaine de la perception par ordinateur, c’est-à-dire des algorithmes permettant à ce dernier de percevoir, comme le ferait un humain, son environnement. Cette perception a tout d’abord été monomodale (visuelle ou sonore par exemple) et est devenue fortement multimodale au fil du temps permettant de nombreuses avancées, notamment grâce à l’avènement récent de l’apprentissage profond (Deep Learning ). Cette présentation s’attachera à dépeindre la perception multimodale au cours de ces deux décennies sous le prisme des travaux de recherche menés dans les équipes PRIMA et Pervasive Interaction d'Inria. Nous aborderons également les applications en interaction sociable homme/machine permises par cette perception (espaces perceptifs multimodaux, robots compagnons, véhicules autonomes)
"Domaine(s)" et indice(s) Dewey
- Interaction homme-machine (004.019)
Domaine(s)
- Interfaces et interactions Homme - machine
- Informatique
- Informatique
Intervenants, édition et diffusion
Intervenants
Diffusion
Document(s) annexe(s)
- Cette ressource fait partie de
Fiche technique
- LOMv1.0
- LOMFRv1.0
- Voir la fiche XML