tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Recherche avancée
Ensemble de recherche :
tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Recherche par couleur
Ensemble de recherche :
tous les documents
  • tous les documents
  • Images
  • Films
  • Rushes
  • Publications
  • Audio
Code HTML Copiez-collez le code ci-dessous pour l'intégrer dans une page Web.
Titre :
RII, les Ed-Techs au service de l'e-éducation : Multispeech
Légende - Résumé :
Denis Jouvet, Multispeech, Nancy Grand-Est, traitement automatique de la parole et apprentissage de la langue.
Présentation des travaux de l’équipe Multispeech, sur la modélisation de la parole et sur l’apprentissage des langues.
Nom de fichier :
Inria_1044_RII_Edtechs_Multispeech.mp4
Titre :
RII, les Ed-Techs au service de l'e-éducation : Multispeech
Année :
2016
Durée (min) :
00:02:12
Publications :
https://videotheque.inria.fr/videotheque/doc/1044
Autres versions :
Master VF : 1044
Master VEN :
Autre : Lien externe :
Lien Equipe-projet :
Lien Centre de Recherche :
Mots clés :
N° master :
1044
Durée :
02 min 12 sec
IsyTag :
articulateurs - articulographe - capteur - image - l' - langue - lèvres - modélisation - mouvement - visage
Transcription automatiqu :
Denis Jouvet responsable de l'équipe Multispeech nous présente ses travaux sur la modélisation de la parole et sur l'apprentissage des langues Cette première partie de la démo concerne la modélisation articulatoire Donc c'est comment à partir de la position des articulateurs générer du signal de parole pour avoir le lien précis entre la position des articulateurs et les sons Les premiers travaux se sont faits à partir d'images par rayons X tels que l'on voit ici comme par exemple ce film qui montre que le mouvement de la langue et de la mâchoire pour la prononciation d'une petite phrase Maintenant les travaux donc l'acquisition de données se font à partir d'images IRM qui vont venir peu à peu remplacer les images anciennes à rayons X et qui permettent aussi d'avoir des des informations 3D de la forme du conduit vocal Pour avoir des informations complémentaires liées au visage en particulier les lèvres On va avoir un suivi très fin du mouvement en fonction des sons On utilise un appareil qui s'appelle un articulographe qui génère un champ magnétique qui permet de suivre la position de petits capteurs qu'on voit ici fixés soit sur les lèvres voire sur la langue Et ça permet de suivre avec une fréquence temporelle élevée le mouvement de ces points qui vont être derrière utilisés pour pour représenter le mouvement temporel de la langue pendant la prononciation d'un mot ou le mouvement des lèvres pendant la prononciation d'un texte Cette partie de capteur fixée sur le visage ici permet d'animer un visage parlant Donc c'est juste le mouvement des différents capteurs qui s'est propagé sur l'ensemble du visage qui permet d'animer la forme L'idée sur le plus long terme c'est de prolonger ce visage virtuel pour ajouter en transparence la forme de la langue qu'on a obtenue à travers l'articulographe ou au travers des images IRM de manière à pouvoir montrer dans le contexte d'apprentissage de la langue la position qu'il faudrait avoir précise de la langue pour prononcer un son Au travers des travaux menés pour la modélisation de la parole nous avons acquis des données articulatoires multimodales ainsi que développer des briques technologiques qui peuvent trouver leur application dans les outils d'apprentissage de langue pour aider à bien expliquer comment prononcer des mots ou des phrases dans une langue étrangère
Inria_1044_RII_Edtechs_Multispeech.mp4

Format : .mp4
171,9 Mo
1920 x 1080 pixels
Inria_1044_RII_Edtechs_M_HD.MP4

Format : .mp4
80,9 Mo
1024 x 576 pixels
Moyenne définition - équivalent DVD
Encodage PAL .MP4 H264
5 Mbits/s
Sélection
Voir Selection
Déposer ici pour retirer de la sélection