Aller au menu Aller au contenu Aller à la recherche
  • Français
  • English

Fiche de MIGNIOT Cyrille

Adresse : 9 avenue Alain Savary - BP47870 - 21078 DIJON
Localisation : Bâtiment I3M - Bureau 315
Tél. : 03 80 39 36 92
E-mail : cyrille.migniot@u-bourgogne.fr
Equipe : CORES
Fonction : Enseignant-Chercheur
Titre : MCF

Système sonore d’aide à la locomotion des déficients visuels

Il s’agit du projet région envergure 3DSG en collaboration avec le laboratoire LEAD qui à développer des lunettes électroniques permettant d’aider les personnes non-voyantes à éviter les obstacles lorsqu’elles se déplacent à pied. Ce système est basé sur une technologie qui convertit l’information visuo-spatiale collectée en trois dimensions par une caméra temps-de-vol ou stéréoscopique en un flux sonore spatialisé grâce à une méthode dite de substitution sensorielle. Les 3 dimensions visuo-spatiales (droite-gauche, bas-haut et éloigné-rapproché) sont traduites par les indices auditifs (oreille droite-oreille gauche, grave-aiguë, son plat-son percussif). Le traitement de l’information qui convertit le flux vidéo acquis par une caméra temps-de-vol ou caméra stéréoscopique en un flux sonore spatialisé se fait en deux temps. Tout d’abord, le flux vidéo brut provenant de la caméra est filtré pour ne conserver que les éléments graphiques que l’on souhaite retenir. Une fois le flux vidéo simplifié, il doit être transformé lors d’une seconde étape en un flux sonore stéréophonique. Pour cela, nous associons chaque pixel graphique conservé lors de la première étape avec un pixel sonore.

Partenaires : Maxime Ambard, Julien Dubois, Florian Scalvini

Publications : ICASSP2022 – SITIS2022

Micro-expressions et reconnaissance d'émotions

L’informatique affective consiste à concevoir et à développer des systèmes pouvant reconnaître, interpréter, analyser et synthétiser les affects humains (sentiment, humeur, émotion et sensation). Cette branche moderne de l’informatique permet d’analyser les états émotionnels d’une personne et de fournir une réponse adaptée et appropriée de la part de l’interface homme machine. Basée sur les techniques de vision par ordinateur, l’objectif de ce projet est d’établir un système de reconnaissance des émotions sans contact et temps réel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Dans un premier temps, une caméra rapide sera utilisée pour la capture des micro-expressions. Une nouvelle base de données sera créée dans des conditions réelles d’interaction homme/machine. Ensuite, des algorithmes déjà existants de reconnaissance des macro-expressions seront testés puis améliorés sur des images/vidéos sélectionnées afin de les généraliser au cas des micro-expressions. Certaines nouvelles approches spécifiques à l’analyse des micro-expressions et utilisant des techniques de Machine Learning seront étudiées et proposées.

Partenaires : Fan Yang, Reda Belaiche, Dominique Ginhac, Yannick Benezeth, Rita Meziati Sabour

Publications : Applied Sciences 20 –  ICIAP19SITIS19

L’apex est l’instant de la micro-expression de plus haute intensité.

Le LBP-TOP est un descripteur de micro-expressions

Analyse de démarches

L’analyse du mouvement humain est un sujet primordial notamment dans le domaine médical. Pour une analyse pertinente, il faut étudier la déformation locale du corps au cours du temps. C’est à ce niveau de précision qu’une anomalie peut-être détectée ou qu’une guérison peut être appréciée. Pour une représentation efficace du corps, les données 3D sont préférables. En effet elles forment une représentation très représentative et descriptive des formes humaines. Elles ont de plus l’avantage de ne pas être perturbées par la couleur ou les imperfections de la peau. Ces données sur le corps de la personne peuvent prendre la forme d’un nuage de points 3D. La déformation du corps est alors obtenue par un suivi du nuage de points qui détermine l’évolution temporelle du nuage.
Le projet a été réalisé en collaboration avec la société Proteor, spécialisée dans la fourniture d’appareillage de rééducation (corsets et prothèses). L’objectif de ce travail est de fournir un outil permettant d’analyser l’effet d’une prothèse (ou d’un corset).. Un classifieur a été mis en place pour reconnaître une démarche pathologique. La reconnaissance est effectuée à partir d’un LSTM sur les angles de flexion des jambes. Les principales contributions sont la création d’une nouvelle base de données de démarches à partir d’une caméra kinect (données de couleur, de profondeur et squelette), puis l’introduction de nouvelles caractéristiques descriptives du mouvement et enfin la mise en place d’un classifieur LSTM utilisant ces caractéristiques pour la reconnaissance de cas pathologiques.

Partenaires : Albert Dipanda et Margarita Khokhlova.

Publications : AIM19MTAP18SITIS18VISAPP18SITIS16

Variation du nuage de points sur plusieurs actions.

Processus de classification de démarche par matrice de covariance.

Héritage culturel et réalité virtuelle

De nos jours les outils informatiques ont considérablement augmenté le besoin de conservation et de distribution de notre héritage culturel. Chaque œuvre artistique, chaque trace de notre passé est enregistrée afin d’en assurer la pérennité et de la rendre accessible à chacun. De plus l’utilisation courante de technologies avancées a rendu le public exigeant sur la qualité des données qui lui sont fournies et de nouveaux supports pédagogiques pour l’enseignement ont été introduits. Il est à noter que les artistes eux même se sont rendus compte du potentiel de l’informatique et produisent des œuvres à partir de systèmes numériques comme des caméras haute résolution ou même des téléphones portables. Il convient de définir des outils pour rendre l’accès à ces données ludique, agréable et original. Cela par exemple par un accès aux parties des œuvres habituellement cachées, par la reconstruction de parties manquantes ou par l’utilisation de la réalité virtuelle. Ces outils seront destinés à la fois au grand public, aux spécialistes et aux chercheurs.
Pour permettre un accès ludique et agréable aux œuvres, la représentation virtuelle est un outil précieux. En effet celle-ci sera accessible quel que soit l’endroit où l’usager se trouve et ce dernier pourra la manipuler sans crainte de dégrader une œuvre inestimable et unique. Les techniques actuelles d’acquisition permettent d’obtenir aisément une représentation 3D de grande qualité de n’importe quel objet. Le problème est alors de permettre une interaction stimulante entre l’utilisateur et la représentation 3D.

Partenaires : Albert Dipanda et Ammar Ahmad.

Publications : IVC19SITIS17CH15

Boucle d’interaction virtuelle

Détéction 3D

La reconstruction tridimensionnelle à partir de séquences vidéo multi-caméra pour l’analyse ou le suivi du mouvement de personnages ou plus généralement d’objets déformables en temps réel et sans marqueur est un sujet d’une grande actualité au sein de la communauté internationale du domaine de par de nombreuses applications présentes et surtout à venir. L’objectif de du projet RAHA est la mise en place d’une plate-forme d’acquisition d’images permettant la reconstruction 3D et l’analyse du mouvement temps réel d’un sujet déformable. L’acquisition est réalisée à partir d’un ensemble de plusieurs Kinects disposées de façon à obtenir une vision 3D selon une vue à 360°. Nous avons mis en place une méthode de détection de personnes à partir de ces données. Le processus de descripteur HOG est modifié pour ce dessein. La normale de chaque point 3D de l’acquisition donne une bonne vision de la forme de l’enveloppe d’une personne; elle remplace le gradient dans notre descripteur. La quantification de l’orientation 3D pour le calcul des histogrammes est réalisé par projection des normales sur les faces d’un polyèdre régulier.

Partenaires : Albert Dipanda et Kyis Essmaeel.

Publications : MTAP19VISAPP16ORASIS15

Détection de personnes à partir d’un nuage de points complet

Estimation du mouvement par thermographie infrarouge

Le contrôle non destructif de matériaux peut se réaliser par le biais de la thermographie infrarouge. En soumettant l’élément à contrôler à une excitation extérieure maitrisée et en analysant la propagation de la chaleur dans la zone examinée, il est possible de mettre en évidence des défauts surfaciques ou su surfaciques telles que des fissures, des délaminages ou de la corrosion. L’excitation locale du matériau par une source laser apparaît comme une approche pertinente en terme de localisation de défaut ou de caractérisation  de matériaux anisotropes.
L’objectif de se travail est de concevoir un système de contrôle non destructif par thermographie active mobile. Le travail porte sur la détermination du mouvement relatif du capteur par rapport à des ‘marqueurs thermiques’ sur l’objet observé.

Partenaires : Olivier Aubreton et Thomas Herrmann

Publication : QCAV19 QIRT2020

Image thermique d’une mire pour la calibration

UFR Sciences et Techniques

ESIREM

GEIPI 1A - Programmation C

REVUES INTERNATIONALES

CONFÉRENCES INTERNATIONALES

CONFÉRENCES NATIONALES

Doctorants

XIANGMEI Chen

Chen XIANGMEI

Titre : Prédiction des performances de la communication acoustique sous-marine basée sur l’apprentissage automatique

Sujet : La transmission de liaison fiable des réseaux acoustiques sous-marins à longue portée est confrontée à de graves défis physiques, ce qui entraîne une série de difficultés pour la conception de liaisons fiables : i.L’environnement du canal acoustique sous-marin est complexe et dynamique : les conditions de propagation acoustique à longue portée le canal acoustique sous-marin a de grandes fluctuations et la plage de fluctuation peut atteindre 10 ~ 20 dB. Les conditions de rapport signal sur bruit de communication à différentes distances sont souvent très différentes. L’environnement complexe des canaux acoustiques sous-marins oblige à donner la priorité à la fluctuation des performances de communication dans la conception des liaisons. ii.La bande passante disponible du canal acoustique sous-marin est très étroite : à partir de la formule de perte de propagation, on peut voir que la perte de propagation est proportionnelle au coefficient d’absorption, et le coefficient d’absorption est positivement lié à la fréquence et à la distance de propagation du acoustique, c’est-à-dire que plus la fréquence et la distance de propagation de l’onde acoustique sont élevées, plus le coefficient d’absorption est élevé et plus la perte de propagation est importante. Par conséquent, seuls les signaux acoustiques à basse fréquence sont applicables dans la communication acoustique sous-marine à longue portée, c’est-à-dire que la bande passante disponible du canal acoustique sous-marin est sévèrement limitée. La bande passante disponible très limitée pose un problème critique à la conception de la liaison : l’exigence d’utilisation du spectre est très élevée.

Co-encadré avec : Fan Yang

Thèse commencée le : 21 décembre 2022

 

Quentin HÉRAU

Titre : Cartographie compressée et évolutive pour la navigation à long terme sur support embarqué à partir de données provenant de sources multiples

Sujet :Le sujet principal de ce doctorat porte sur l’amélioration de la cartographie embarquée pour la localisation à long terme dans un environnement dynamique en utilisant des données issues de sources diverses. La localisation et la cartographie sont des éléments fondamentaux pour permettre une conduite autonome sûre et des capacités d’automatisation avancées pour les véhicules de demain. Cependant, une cartographie précise est coûteuse tant par la résolution temporelle et la qualité des données requises. D’une part, les données cartographiques doivent avoir une résolution temporelle élevée : afin de maintenir la carte à jour, les données doivent être collectées fréquemment pour prendre en compte les modifications dynamiques de l’environnement. D’autre part, une cartographie précise nécessite des données de qualité : les systèmes de cartographie mobiles existant s’appuient sur une myriade de capteurs aux modalités différentes et complémentaire. Ce constat nous mène à la conclusion suivante : la cartographie à long terme et sur de larges zones nécessaire au déploiement de véhicule autonomes en utilisant les solutions d’acquisition mobiles existante n’est pas une solution viable car trop couteuse.
Une solution attrayante consiste à utiliser des données dites « crowd-sourced » ; issues de sources multiples et décentralisées, qui ont l’avantage d’avoir une grande résolution temporelle mais une qualité inférieure à celle des données obtenues à partir d’une plateforme d’acquisition spécifique plus coûteuse. La redondance des données « crowd-sourced » permet de capturer la dynamique de l’environnement pour mettre à jour la représentation cartographique utilisée par les algorithmes de localisation d’un véhicule autonome. L’analyse temporelle de ces données offre la possibilité de prédire les changements susceptibles de se produire et de distinguer les changements permanents des modifications structurelles temporaires. En utilisant des méthodes d’analyses centrées sur la donnée et avec des volumes d’information suffisants, la détection de ces changements pourra émerger directement des données de cartographie et permettra de prédire des comportements au-delà d’une nomenclature prédéfinie.
Afin de partager les informations provenant de sources diverses et décentralisées, les données acquises par un système embarqué doivent être compressées ou prétraitées à bord du système d’acquisition. Ceci implique deux contraintes distinctes : le traitement embarqué des données issues des capteurs ainsi que la compression des données cartographiques issues de ce traitement. Pour subvenir à la contrainte de l’embarqué, l’emploie d’algorithmes de cartographie légers pouvant être exécutés sur des dispositifs à faible capacité de calcul est à préconiser. Afin de réduire la quantité d’information devant être partagée, les données cartographique peuvent être filtrées en amont afin conserver seulement les caractéristiques cartographiques significatives pour des applications ciblées, telles que la localisation d’un véhicule à partir d’une carte.
La qualification de la qualité des cartes est également un aspect important pour un fournisseur de services de localisation, tel que celui utilisé dans une voiture autonome. En analysant la qualité et la densité des données traitées, un autodiagnostic peut offrir une qualification fine de la zone cartographiée. Une telle qualification permet de demander de manière proactive de nouvelles données sur une zone spécifique afin de maintenir le niveau de qualité cartographique requis pour faire fonctionner un véhicule autonome en toute sécurité.

Co-encadré avec : Cédric Demonceaux, Nathan Piasco et Pascal Vasseur

Thèse commencée le : 17 mars 2022

 

Florian SCALVINI

Titre : Développement de lunettes électroniques servant de système sonore d’aide à la locomotion des déficients visuels

Sujet : Le projet 3D Sound Glasses consiste à développer des lunettes électroniques permettant d’aider les personnes non-voyantes à éviter les obstacles lorsqu’elles se déplacent à pied. Ce système est basé sur une technologie qui convertit l’information visuo-spatiale collectée en trois dimensions par une caméra temps-de-vol ou stéréoscopique en un flux sonore spatialisé grâce à une méthode dite de substitution sensorielle.Le traitement de l’information qui convertit le flux vidéo acquis par une caméra temps-de-vol ou caméra stéréoscopique en un flux sonore spatialisé se fait en deux temps. Tout d’abord, le flux vidéo brut provenant de la caméra est filtré pour ne conserver que les éléments graphiques que l’on souhaite retenir. Une fois le flux vidéo simplifié, il doit être transformé lors d’une seconde étape en un flux sonore stéréophonique. Pour cela, nous associons chaque pixel graphique conservé lors de la première étape avec un pixel sonore. Pour que le système mobile soit pleinement opérationnel (autonomie, encombrement, température, réactivité) il est nécessaire que les algorithmes soient implémentés sur des cibles matérielles permettant le temps réel (par exemple FPGA ou GPU).

Co-encadré avec : Julien Dubois et Maxime Ambard

Thèse commencée le : 1er novembre 2020

 

Reda BELAICHE

Titre : Étude des émotions par l’analyse temps-réel des micro-expressions basée sur la vision par ordinateur

Sujet : Basée sur les techniques de vision par ordinateur, l’objectif de cette thèse est d’établir un système de reconnaissance des émotions sans contact et tempsréel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Le rendu des émotions par les expressions faciales n’est pas culturelle mais universelle. Ainsi, les émotions de base sont généralement réparties en six catégories. Récemment ces expressions ont également été divisées en deux classes : les macro et les micro-expressions. Les micro-expressions se produisent sur une durée comprise entre 1/4 et 1/25 de seconde. Elles sont involontaires et révèlent les véritables émotions de la personne. Cependant, la localisation et l’analyse de ces événements sont très compliquées du fait de leur faible durée et de leur faible intensité.

Co-encadré avec : Fan Yang et Dominique Ginhac

Thèse soutenue le : 30 septembre 2022

 

Thomas HERRMANN

Titre : Contrôle Non Destructif par thermographie active dynamique

Sujet : L’objectif de la thèse est de concevoir un système de contrôle non destructif par thermographie active mobile. Pour ce faire le travail porte sur la détermination du mouvement relatif du capteur par rapport à des ‘marqueurs thermiques’ sur l’objet observé. L’acquisition sera réalisée à l’aide d’un capteur infrarouge et d’un capteur RGB-D. On étudiera aussi l’observabilité de ces marqueurs pour définir plusieurs paramètres comme leur fréquence de régénération.

Co-encadré avec : Olivier Aubreton

Thèse commencée le : 1 octobre 2017

Ammar AHMAD

Titre : Manipulation virtuelle des représentations 3D d’objets culturels

Sujet : Une tendance croissante consiste à étudier la Réalité Virtuelle (RV) au service du patrimoine culturel. Les plus grands musées du monde proposent aujourd’hui à leurs visiteurs différents outils de réalité virtuelle ou augmentée pour une expérience culturelle enrichie. Dans une visite classique d’un musée, les objets culturels exposés ne sont pas accessibles. Les visiteurs ne peuvent pas les toucher ni les manipuler. L’un des apports de la RV est d’offrir une dimension supplémentaire d’interactivité : les visiteurs deviennent des acteurs placés au centre de l’expérimentation virtuelle et capables d’interagir avec les différentes entités culturelles composant l’univers simulé. Notre projet a pour cadre l’interaction 3D avancée au service des musées du futur. Sa finalité est de permettre aux visiteurs d’un musée une activité sensori-motrice dans un environnement virtuel ou augmenté : manipuler la maquette numérique d’objets culturels exposés. Le but est donc de suivre les interactions 3D entre les mains d’un visiteur évoluant dans le monde réel et des objets culturels 3D évoluant dans un monde virtuel. Le suivi visuel sans marqueur des mouvements de la main est un élément clé et populaire des études d’interaction dans de nombreux domaines tels que la réalité virtuelle et les interfaces naturelles homme-ordinateur. Bien que ce domaine de recherche ait été bien étudié au cours des dernières décennies, la plupart des approches ont considéré la main humaine en isolation et non pas en action ou en interaction avec l’environnement ou les autres parties articulées du corps humain. L’utilisation d’information contextuelle sur l’environnement (par exemple, la forme, la texture et la posture de l’objet dans la main) peut contraindre considérablement le problème de suivi. Les contraintes contextuelles les plus étudiées impliquent interaction avec des objets réels et non pas avec des objets virtuels qui reste tout un défi. Le suivi des mains manipulant des objets virtuels semble donc être une avenue de recherche particulièrement prometteuse.

Co-encadré avec : Albert Dipanda

Thèse commencée le : 7 octobre 2015

Margarita KHOKHLOVA

Titre : Évaluation clinique de la démarche à partir de données 3D

Sujet : L’analyse de la démarche clinique est généralement subjective, étant effectuée par des cliniciens observant la démarche des patients. Des alternatives à une telle analyse sont les systèmes basés sur les marqueurs et les systèmes basés sur les plates-formes au sol. Cependant, cette analyse standard de la marche nécessite des laboratoires spécialisés, des équipements coûteux et de longs délais d’installation et de post-traitement. Les chercheurs ont fait de nombreuses tentatives pour proposer une alternative basée sur la vision par ordinateur pour l’analyse de la demarche. Avec l’apparition de caméras 3D bon marche, le problème de l’évaluation qualitative de la démarche a été re-examiné. Les chercheurs ont réalisé le potentiel des dispositifs de cameras 3D pour les applications d’analyse de mouvement. Cependant, malgré des progrès très encourageants dans les technologies de détection 3D, leur utilisation réelle dans l’application clinique reste rare. Cette thèse propose des modèles et des techniques pour l’évaluation du mouvement à l’aide d’un capteur Microsoft Kinect. En particulier, nous étudions la possibilité d’utiliser différentes données fournies par une caméra RGBD pour l’analyse du mouvement et de la posture. Les principales contributions sont les suivantes. Nous avons réalisé une étude de l’etait de l’art pour estimer les paramètres importants de la démarche, la faisabilité de différentes solutions techniques et les méthodes d’évaluation de la démarche existantes. Ensuite, nous proposons un descripteur de posture basé sur un nuage de points 3D. Le descripteur conçu peut classer les postures humaines statiques a partir des données 3D. Nous construisons un système d’acquisition à utiliser pour l’analyse de la marche basée sur les donnees acquises par un capteur Kinect v2. Enfin, nous proposons une approche de détection de démarche anormale basée sur les données du squelette. Nous démontrons que notre outil d’analyse de la marche fonctionne bien sur une collection de données personnalisées et de repères existants. Notre méthode d’évaluation de la démarche affirme des avances significatives dans le domain, nécessite un équipement limité et est prêt à être utilisé pour l’évaluation de la démarche. 

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 19 novembre 2018

Kyis ESSMAEEL

Titre : Interprétation et analyse du mouvement humain sans marqueur par stéréovision active

Sujet : Réalisation d’une plate-forme d’acquisition d’images permettant de suivre les déplacements d’un sujet humain dans une pièce. L’objectif est de calculer certains paramètres globaux de mouvement, mais aussi de pouvoir activer des alarmes en fonction de certaines situations ou scénarii caractéristiques. Cette plateforme pourra servir pour la surveillance des malades (de type Alzheimer) mais aussi dans le cadre d’activités telles que la rééducation fonctionnelle ou la décomposition des mouvements des sportifs.

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 10 décembre 2015

HTBA - International Workshop on Human Tracking and Behavior Analysis

Le workshop HTBA propose depuis 2016 une rencontre autour l’analyse du comportement humain à partir de la vision par ordinateur.
Il est chaque année organiser conjointement à la conférence SITIS – International Conference on SIGNAL IMAGE TECHNOLOGY & INTERNET BASED SYSTEMS.

Flyer de l’édition 2022.

Champs d'étude du workshop

Le traitement des vidéos pour analyser le geste humain est un sujet brûlant et prometteur puisqu’il a été adopté dans de nombreuses applications telles que la surveillance vidéo, la surveillance médicale, la réalité virtuelle, l’interaction homme-machine, etc. La classe des personnes est au cœur des préoccupations de la recherche et de l’industrie et ouvre la voie vers l’intelligence artificielle. Comment un ordinateur peut-il faire la même interprétation d’une scène qu’un humain? Les possibilités sont infinies mais dépendent de l’efficacité des processus primaires : analyser et reconnaître les gestes et les comportements humains.
Ce workshop a pour objectif d’analyser les différentes significations, supports (capteurs 2D ou 3D) et contraintes (temps réel) qui permettent de répondre aux trois étapes principales de cette problématique : suivi, description et apprentissage. Les processus appliqués doivent être adaptés à la classe particulièrement complexe des personnes. La manière de suivre le mouvement, de décrire le geste et de reconnaître les comportements à différents niveaux (corps entier, jambes, main, etc.) sera mis en avant.

Thématiques du workshop

  • – Suivi de la position d’une ou plusieurs personnes
  • – Suivi de la pose d’une personne
  • – Video surveillance
  • – Applications médicales
  • – Reconnaissance de l’acte d’achat
  • – Analyse du mouvement 2D et 3D
  • – Reconnaissance de démarches
  • – Classification et apprentissage des actions
  • – Interfaçage avec des jeux-vidéos
  • – Implémentation légère pour système embarqué
  • – Traitement temps-réel
  • – Animation d’avatar
  • – Intégration du geste dans un environnement de réalité virtuel
  • – Analyse de vidéos de profondeur
  • – Suivi de la main
  • – Détection de personnes
  • – Reconnaissance des expressions faciales.

Articles récents

  • – Anticipation of Everyday Life Manipulation Actions in Virtual Reality, Fatemeh Ziaeetabar, Stefan Pfeiffer, Minija Tamosiunaite and Florentin Wörgötter (HTBA 2019)
  • – Abnormal Crowd Behaviour Recognition in Surveillance Videos, Franjo Matković, Darijan Marčetić and Slobodan Ribarić (HTBA 2019)
  • – Time Unification for Local Binary Pattern Three Orthogonal Planes, Reda Belaiche, Cyrille Migniot, Dominique Ginhac and Fan Yang (HTBA 2019)
  • – Fine-grained Action Recognition in Assembly Work Scenes by Drawing Attention to the Hands, Takuya Kobayashi, Yoshimitsu Aoki, Shogo Shimizu, Katsuhiro Kusano and Seiji Okumura (HTBA 2019)
  • – Shot Detection in Racket Sport Video at the Frame Level Using A Recurrent Neural Network, Shuto Horie, Yuji Sato, Junko Furuyama, Masamoto Tanabiki and
    Yoshimitsu Aoki (HTBA 2019)
  • – Estimation of Scenes Contributing to Score in Tennis Video using Attention, Ryunosuke Kurose, Masaki Hayashi and Yoshimitsu Aoki (HTBA 2018)
  • – Action and intention recognition of pedestrians in urban traffic, Dimitrios Varytimidis, Fernando Alonso-Fernandez, Cristofer Englund and Boris Duran (HTBA 2018)
  • – Machine Learning for Video Action Recognition: a Computer Vision Approach Mikel Labayen, Naiara Aginako, Basilio Sierra, Igor G. Olaizola and Julián Floréz (HTBA 2018)
  • – Kinematic Covariance Based Abnormal Gait Detection, Margarita Khokhlova (HTBA 2018)
  • – Pholder: An Eye-Gaze assisted reading application on Android, Christiantia Wirawan, Hu Qingyao, Liu Yi, Senglidet Yean, Bu-Sung Lee, Fang Ran (HTBA 2017)
  • – Occupancy Analysis of Soccer Fields using Wide-Angle lens, Noor Ul Huda, Rikke Gade, Thomas B. Moeslund (HTBA 2017)
  • – Tracking Hands in Interaction with Objects: A Review, Ammar Ahmad (HTBA 2017)
  • – Automatic analysis of activities in sports arenas using thermal cameras, Rikke Gade, Thomas B. Moeslund (HTBA2016)
  • – Motion Analysis for Cooking Motion Recognition, Yuma Hijioka, Makoto Murakami, Tadahiko Kimoto (HTBA2016)
  • – An Approach for the Evaluation of Sleeping Behaviors Disorders in Patients with Cognitive Diseases: A Case Study, Antonio Coronato, Giovanni Paragliola (HTBA2016)
  • – Action Recognition Online with Hierarchical Self-Organizing Maps, Zahra Gharaee, Peter Gardenfors, Magnus Johnsson (HTBA2016)
  • – Tracking People in Dense Crowds using Supervoxels Shota Takayama, Teppei Suzuki, Yoshimittsu Aoki, Sho Isobe, Makoto Masuda(HTBA2016)
  • – Conversational group detection based on social context using graph clustering algorithm, Shoichi Inaba, Yoshimitsu Aoki (HTBA2016)
  • – 3D Visual-based Human Motion Descriptors: A Review, Margarita Khokhlova, Cyrille Migniot, Albert Dipanda (HTBA2016)

Special issue Sensors : Human Activity Recognition Based on Image Sensors and Deep Learning

Il s’agit d’un special issue de la revue  Sensors (ISSN 1424-8220) appartenant à la section Sensing and Imaging.

Editeurs : Fakhreddine Ababsa et Cyrille Migniot

Date limite de soumission : 21 mai 2021

Site web

identite:
Cyrille MIGNIOT
titre:
MCF
fonction:
Enseignant-Chercheur
equipe:
a:1:{i:0;s:5:"CORES";}
adresse_postale:
9 avenue Alain Savary - BP47870 - 21078 DIJON
telephone:
03 80 39 36 92
localisation:
Bâtiment I3M - Bureau 315
courriel:
cyrille.migniot@u-bourgogne.fr
url_site_perso_ou_professionnel:
travaux_de_recherche_passes:

https://haltools.archives-ouvertes.fr/Public/afficheRequetePubli.php?auteur_exp=Cyrille+Migniot&CB_auteur=oui&CB_titre=oui&CB_article=oui&CB_vignette=oui&langue=Anglais&tri_exp=annee_publi&tri_exp2=typdoc&tri_exp3=date_publi&ordre_aff=TA&Fen=Aff&css=../css/VisuRubriqueEncadre.css

responsabilité:
enseignements_dispenses:
autres_activites:
photo_de_profil:
29209
kc_data:
a:7:{s:4:"mode";s:2:"kc";s:7:"classes";s:0:"";s:3:"css";s:0:"";s:9:"max_width";s:0:"";s:9:"thumbnail";s:0:"";s:9:"collapsed";s:0:"";s:9:"optimized";s:0:"";}
kc_raw_content:
[kc_row use_container="yes" _id="768629"][kc_column width="12/12" video_mute="no" _id="45853"][kc_tabs speed="450" pagination="yes" active_section="1" _id="801763"][kc_tab title="Recherches" _id="301426" css_custom="{`kc-css`:{`any`:{`typography`:{`text-align|`:`justify`}}}}"][kc_accordion _id="751009" close_all="yes"][kc_accordion_tab title="Système sonore d’aide à la locomotion des déficients visuels" _id="508574"][kc_row_inner column_align="middle" _id="127486" cols_gap="{`kc-css`:{}}" equal_height="yes"][kc_column_inner width="82.43%" _id="886336"][kc_column_text _id="928623"]

Il s'agit du projet région envergure 3DSG en collaboration avec le laboratoire LEAD qui à développer des lunettes électroniques permettant d’aider les personnes non-voyantes à éviter les obstacles lorsqu’elles se déplacent à pied. Ce système est basé sur une technologie qui convertit l’information visuo-spatiale collectée en trois dimensions par une caméra temps-de-vol ou stéréoscopique en un flux sonore spatialisé grâce à une méthode dite de substitution sensorielle. Les 3 dimensions visuo-spatiales (droite-gauche, bas-haut et éloigné-rapproché) sont traduites par les indices auditifs (oreille droite-oreille gauche, grave-aiguë, son plat-son percussif). Le traitement de l’information qui convertit le flux vidéo acquis par une caméra temps-de-vol ou caméra stéréoscopique en un flux sonore spatialisé se fait en deux temps. Tout d’abord, le flux vidéo brut provenant de la caméra est filtré pour ne conserver que les éléments graphiques que l’on souhaite retenir. Une fois le flux vidéo simplifié, il doit être transformé lors d’une seconde étape en un flux sonore stéréophonique. Pour cela, nous associons chaque pixel graphique conservé lors de la première étape avec un pixel sonore.

Partenaires : Maxime Ambard, Julien Dubois, Florian Scalvini

Publications : ICASSP2022 - SITIS2022

[/kc_column_text][/kc_column_inner][kc_column_inner width="17.53%" _id="92013"][kc_single_image _id="59474" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEVWeWUzBVxqeI_G52nlqTTS-62opoAWhMOmO_OuPXqONgXO0vKGB_Ir4ACrC_iJ7vMNFe8JlU24KWTzGNaALxG-gInHwP8YuOK_iGr9XyBukRtnUQSy_HQoPq0R4V2qQGFE36zHPlXXDO08PTjlYsDz=s152-no?authuser=0" on_click_action="op_large_image"][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][kc_accordion_tab title="Micro-expressions et reconnaissance d:apos:émotions" _id="25480"][kc_row_inner column_align="middle" _id="520433" cols_gap="{`kc-css`:{}}" equal_height="yes"][kc_column_inner width="77.89%" _id="503662"][kc_column_text _id="690242"]

L'informatique affective consiste à concevoir et à développer des systèmes pouvant reconnaître, interpréter, analyser et synthétiser les affects humains (sentiment, humeur, émotion et sensation). Cette branche moderne de l'informatique permet d'analyser les états émotionnels d'une personne et de fournir une réponse adaptée et appropriée de la part de l'interface homme machine. Basée sur les techniques de vision par ordinateur, l'objectif de ce projet est d'établir un système de reconnaissance des émotions sans contact et temps réel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Dans un premier temps, une caméra rapide sera utilisée pour la capture des micro-expressions. Une nouvelle base de données sera créée dans des conditions réelles d'interaction homme/machine. Ensuite, des algorithmes déjà existants de reconnaissance des macro-expressions seront testés puis améliorés sur des images/vidéos sélectionnées afin de les généraliser au cas des micro-expressions. Certaines nouvelles approches spécifiques à l'analyse des micro-expressions et utilisant des techniques de Machine Learning seront étudiées et proposées.

Partenaires : Fan Yang, Reda Belaiche, Dominique Ginhac, Yannick Benezeth, Rita Meziati Sabour

Publications : Applied Sciences 20ICIAP19 - SITIS19

[/kc_column_text][/kc_column_inner][kc_column_inner width="22.09%" _id="836090"][kc_single_image _id="879998" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEVQsBsVgQNf6zHSNbXAgnMQuTpFREWvu78z0xZf9hYjYdfr_rFJZuVSnvG33ewTuNXiPfQYVKLfiJlU1crDxENtH31-H4awVHh-j8KWEiUPT6HlRST0qhmLzkttHbnYkZCYD2p-SwsIToThTlHUMXRY=w470-h206-no?authuser=2" on_click_action="op_large_image"][kc_column_text _id="583259"]

L'apex est l'instant de la micro-expression de plus haute intensité.

[/kc_column_text][kc_single_image _id="795839" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/clVQNo--4MLd_2QaJrqev5XLN7odcWNcbxld9zX-LtZb8MGwiUgZaCP_DrM5zc3pVclYD9Gxilf7NGA85-8wLtuq1BeDqZPlB_y__Gee1rENEd30tkzRFCObCA-ONzfGjlkXWZ_Ih1YkpDFL2t-s2dG8AyR_G4Aj-qIQ3Vcav9VZOLiEHVRLQG2BZC-uab0LLZUJMNRmBJ-uDBaBtShg1pN_WXMOXmtUsoFoME9lBUI7bcJ-6gt4ZIUxNbE0JswZiVe2XT065Jf-4Lt-U_B3MhkdCTl_aje4p9lYhaxoj1SoM5ueY1xj-wzh_qGght-GKXjm9f-syhupZ4-RLrMSNm1Pj5UFcJ6e-e720bmfdmktr7Z0rzAK9lZB8A6tBItsYuh4qM0SQQJzZ9SWK1TJNJjJtsnG_2RFm3zCmrQZgTzWVnrTSgruayh95PNAccjXVVaLZWqhz_WfZmRPjExf_4zkKb5S_GOkg74-pdmWBADWqGra8DJwGVMD-0u7ItmJKu8d2LLmsFhdtdwMFNKRxcUEyeSZF6Ga094uaKFsobJn7kPbtzal0f8jv0fkVql73pYAR6isnUeZ0bpEnv0Mn5XPYiffbsbegQt3c7fgJl5x8jVkVaQ3xUlFUl9QPKVl-C0Y6Pk8gSoyjUvELMH9tZ8uGu4itsQabIoLiAwSR2EAK5LjcM0kmBcXBPvPvdwD6bgC1VUK5bLN4EOw3Wa8nHI4_VAX8rYysr7GVs-kM5oET6k=s143-no"][kc_column_text _id="236774"]

Le LBP-TOP est un descripteur de micro-expressions

[/kc_column_text][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][kc_accordion_tab title="Analyse de démarches" _id="880619"][kc_row_inner column_align="middle" video_mute="no" _id="80904"][kc_column_inner width="65.31%" _id="727987"][kc_column_text _id="208293"]

L’analyse du mouvement humain est un sujet primordial notamment dans le domaine médical. Pour une analyse pertinente, il faut étudier la déformation locale du corps au cours du temps. C’est à ce niveau de précision qu’une anomalie peut-être détectée ou qu’une guérison peut être appréciée. Pour une représentation efficace du corps, les données 3D sont préférables. En effet elles forment une représentation très représentative et descriptive des formes humaines. Elles ont de plus l’avantage de ne pas être perturbées par la couleur ou les imperfections de la peau. Ces données sur le corps de la personne peuvent prendre la forme d’un nuage de points 3D. La déformation du corps est alors obtenue par un suivi du nuage de points qui détermine l’évolution temporelle du nuage.
Le projet a été réalisé en collaboration avec la société Proteor, spécialisée dans la fourniture d’appareillage de rééducation (corsets et prothèses). L'objectif de ce travail est de fournir un outil permettant d’analyser l’effet d’une prothèse (ou d’un corset).. Un classifieur a été mis en place pour reconnaître une démarche pathologique. La reconnaissance est effectuée à partir d'un LSTM sur les angles de flexion des jambes. Les principales contributions sont la création d'une nouvelle base de données de démarches à partir d'une caméra kinect (données de couleur, de profondeur et squelette), puis l'introduction de nouvelles caractéristiques descriptives du mouvement et enfin la mise en place d'un classifieur LSTM utilisant ces caractéristiques pour la reconnaissance de cas pathologiques.

Partenaires : Albert Dipanda et Margarita Khokhlova.

Publications : AIM19 - MTAP18 - SITIS18 - VISAPP18 - SITIS16

[/kc_column_text][/kc_column_inner][kc_column_inner width="34.68%" _id="957080"][kc_row_inner# column_align="middle" _id="586322" cols_gap="{`kc-css`:{}}" equal_height="yes"][kc_column_inner# width="100%" _id="989010"][kc_single_image _id="464285" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEVmpbm-57NbGgmTxQsHIhreDT0w4Ss9LKMifu3zCnu8sQkmXreMMh_hXbjZg4dymAXy9FTf8Q9j6zQ05gYgdQamLLauNdKCRu151cfcpuUffawFBY5Yruw_XQiGBKcbdyuvsTc-8200HnWrD_lbRlbn=w743-h313-no?authuser=2" on_click_action="op_large_image" image_size_el="2000"][kc_column_text _id="16102"]

Variation du nuage de points sur plusieurs actions.

[/kc_column_text][kc_single_image _id="696013" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEV-tvhqf7e2KDw-1AUz5fea5Qkph-heG1fZc9wzwOAQuVtU6ElBPNqlDPD8yzAufLC-w5OImbtqpXDgrqpMQWvkpuAkBiLc995SCjkp-3QDQ-I5WLxuTPRvmzOv4p_n_obLTUD-p0-YiMEsxoQsc94S=w819-h622-no?authuser=2" on_click_action="op_large_image"][kc_column_text _id="267490"]

Processus de classification de démarche par matrice de covariance.

[/kc_column_text][/kc_column_inner#][/kc_row_inner#][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][kc_accordion_tab title="Héritage culturel et réalité virtuelle" _id="41497"][kc_row_inner column_align="middle" video_mute="no" _id="967507"][kc_column_inner width="68.82%" _id="241570"][kc_column_text _id="274002"]

De nos jours les outils informatiques ont considérablement augmenté le besoin de conservation et de distribution de notre héritage culturel. Chaque œuvre artistique, chaque trace de notre passé est enregistrée afin d’en assurer la pérennité et de la rendre accessible à chacun. De plus l’utilisation courante de technologies avancées a rendu le public exigeant sur la qualité des données qui lui sont fournies et de nouveaux supports pédagogiques pour l’enseignement ont été introduits. Il est à noter que les artistes eux même se sont rendus compte du potentiel de l’informatique et produisent des œuvres à partir de systèmes numériques comme des caméras haute résolution ou même des téléphones portables. Il convient de définir des outils pour rendre l’accès à ces données ludique, agréable et original. Cela par exemple par un accès aux parties des œuvres habituellement cachées, par la reconstruction de parties manquantes ou par l’utilisation de la réalité virtuelle. Ces outils seront destinés à la fois au grand public, aux spécialistes et aux chercheurs.
Pour permettre un accès ludique et agréable aux œuvres, la représentation virtuelle est un outil précieux. En effet celle-ci sera accessible quel que soit l’endroit où l’usager se trouve et ce dernier pourra la manipuler sans crainte de dégrader une œuvre inestimable et unique. Les techniques actuelles d’acquisition permettent d’obtenir aisément une représentation 3D de grande qualité de n’importe quel objet. Le problème est alors de permettre une interaction stimulante entre l’utilisateur et la représentation 3D.

Partenaires : Albert Dipanda et Ammar Ahmad.

Publications : IVC19 - SITIS17 - CH15

[/kc_column_text][/kc_column_inner][kc_column_inner width="31.16%" _id="40607"][kc_single_image _id="679332" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEVBgFIxvqJtJJ5TpbOszOMAqRndpD8EnDLtp6eGul-S3Dhc0n42LgzjOwWhZg52UIuJN3p79yi9kgYuZgkoLYKZzl0TiIKmPO0Iuk5bF3bndHfRJy9xbhD5as_cAL2DTgooCYtZ59W4yBGbqRipPaWg=w534-h939-no?authuser=0" on_click_action="op_large_image" image_size_el="270x475"][kc_column_text _id="692226"]

Boucle d’interaction virtuelle

[/kc_column_text][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][kc_accordion_tab title="Détéction 3D" _id="428107"][kc_row_inner column_align="middle" video_mute="no" _id="468730"][kc_column_inner width="78.56%" _id="180989"][kc_column_text _id="944448"]

La reconstruction tridimensionnelle à partir de séquences vidéo multi-caméra pour l’analyse ou le suivi du mouvement de personnages ou plus généralement d’objets déformables en temps réel et sans marqueur est un sujet d’une grande actualité au sein de la communauté internationale du domaine de par de nombreuses applications présentes et surtout à venir. L’objectif de du projet RAHA est la mise en place d’une plate-forme d’acquisition d’images permettant la reconstruction 3D et l’analyse du mouvement temps réel d’un sujet déformable. L’acquisition est réalisée à partir d’un ensemble de plusieurs Kinects disposées de façon à obtenir une vision 3D selon une vue à 360°. Nous avons mis en place une méthode de détection de personnes à partir de ces données. Le processus de descripteur HOG est modifié pour ce dessein. La normale de chaque point 3D de l’acquisition donne une bonne vision de la forme de l’enveloppe d’une personne; elle remplace le gradient dans notre descripteur. La quantification de l’orientation 3D pour le calcul des histogrammes est réalisé par projection des normales sur les faces d’un polyèdre régulier.

Partenaires : Albert Dipanda et Kyis Essmaeel.

Publications : MTAP19 - VISAPP16 - ORASIS15

[/kc_column_text][/kc_column_inner][kc_column_inner width="21.43%" _id="650685"][kc_single_image _id="621995" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEWQyqc3PlQnsKQLphG5xRYF6xc1ywBDlGhknTuUXzyh1gW_m0_T8JnlssYakQmMJCaSVvRPno5DLRDes-YKE-zHR1HYuSUKw6U-HjFNC2One2khxMBZsTHThBivUGXRT0-siqGSIh3_E5WaXgkiEuW-=w478-h433-no?authuser=2" on_click_action="op_large_image"][kc_column_text _id="225329"]

Détection de personnes à partir d'un nuage de points complet

[/kc_column_text][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][kc_accordion_tab title="Estimation du mouvement par thermographie infrarouge" _id="904921"][kc_row_inner column_align="middle" video_mute="no" _id="786708"][kc_column_inner width="74.74%" _id="423957"][kc_column_text _id="489874"]

Le contrôle non destructif de matériaux peut se réaliser par le biais de la thermographie infrarouge. En soumettant l'élément à contrôler à une excitation extérieure maitrisée et en analysant la propagation de la chaleur dans la zone examinée, il est possible de mettre en évidence des défauts surfaciques ou su surfaciques telles que des fissures, des délaminages ou de la corrosion. L'excitation locale du matériau par une source laser apparaît comme une approche pertinente en terme de localisation de défaut ou de caractérisation  de matériaux anisotropes.
L'objectif de se travail est de concevoir un système de contrôle non destructif par thermographie active mobile. Le travail porte sur la détermination du mouvement relatif du capteur par rapport à des 'marqueurs thermiques' sur l'objet observé.

Partenaires : Olivier Aubreton et Thomas Herrmann

Publication : QCAV19 QIRT2020

[/kc_column_text][/kc_column_inner][kc_column_inner width="25.24%" _id="465052"][kc_single_image _id="846265" image_source="external_link" image_external_link="https://lh3.googleusercontent.com/pw/AL9nZEUB2AJ1MZfVf4otYQS-BUOtnquNmFqQEFa3HGeENfeChyAjcEOyeuJBOtw6aQ6J9PiNLVd5DzygQ2opRw9gCKtG9VWFocbKWtxU4-VcusC5GKrlD4VUpYB85c548Dz5VDGv2N7TcJcwSI-pRiJl68s=w558-h430-no?authuser=2"][kc_column_text _id="72065"]

Image thermique d'une mire pour la calibration

[/kc_column_text][/kc_column_inner][/kc_row_inner][/kc_accordion_tab][/kc_accordion][/kc_tab][kc_tab title="Enseignements" _id="902165" css_custom="{`kc-css`:{`any`:{`typography`:{`text-align|`:`justify`}}}}"][kc_row_inner column_align="middle" video_mute="no" _id="974347"][kc_column_inner width="19.84%" _id="479864"][kc_single_image _id="411864" image_source="external_link" image_external_link="https://www.u-bourgogne.fr/wp-content/uploads/LOGO-UFR-SCet-tech.jpg"][/kc_column_inner][kc_column_inner width="30.13%" _id="750134"][/kc_column_inner][kc_column_inner width="50.01%" _id="522089"][kc_column_text _id="898898"]

UFR Sciences et Techniques

[/kc_column_text][/kc_column_inner][/kc_row_inner][kc_accordion _id="523795" close_all="yes"][kc_accordion_tab title="M2 - Traitement numérique des vidéos" _id="11935"][kc_column_text _id="518137"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="M1 - Réseaux" _id="264548"][kc_column_text _id="897353"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="M1 - Traitement des images" _id="532144"][kc_column_text _id="679494"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="L3 - Systèmes et Réseaux" _id="812760"][kc_column_text _id="661682"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="L1 - Programmation HTML" _id="961033"][kc_column_text _id="818512"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="L1R - Informatique" _id="106416"][kc_column_text _id="928123"]

[/kc_column_text][/kc_accordion_tab][/kc_accordion][kc_row_inner column_align="middle" video_mute="no" _id="725387"][kc_column_inner width="15.19%" _id="15484"][kc_single_image _id="127729" image_source="external_link" image_external_link="https://www.u-bourgogne.fr/wp-content/uploads/logo-couleur.jpg"][/kc_column_inner][kc_column_inner width="34.96%" _id="551936"][/kc_column_inner][kc_column_inner width="49.83%" _id="363408"][kc_column_text _id="78815"]

ESIREM

[/kc_column_text][/kc_column_inner][/kc_row_inner][kc_accordion _id="202409" close_all="yes"][kc_accordion_tab title="GEIPI 1A - Programmation C" _id="219940"][kc_column_text _id="888572"]

[/kc_column_text][/kc_accordion_tab][/kc_accordion][/kc_tab][kc_tab title="Publications" _id="811144"][kc_title text="UkVWVUVTIElOVEVSTkFUSU9OQUxFUw==" _id="891906" type="h2"][kc_row_inner column_align="middle" video_mute="no" _id="852048"][kc_column_inner width="100%" _id="358325"][kc_column_text _id="528035"]

[/kc_column_text][/kc_column_inner][/kc_row_inner][kc_spacing height="40px" _id="668323"][kc_title text="Q09ORsOJUkVOQ0VTIElOVEVSTkFUSU9OQUxFUw==" _id="2347" type="h2"][kc_column_text _id="722730"]

[/kc_column_text][kc_spacing height="40px" _id="896020"][kc_title text="Q09ORsOJUkVOQ0VTIE5BVElPTkFMRVM=" _id="933369" type="h2"][kc_column_text _id="473982"]

[/kc_column_text][/kc_tab][kc_tab title="Encadrements" _id="18306"][kc_title text="RG9jdG9yYW50cw==" _id="37697" type="h2"][kc_accordion _id="215423" close_all="yes" title="XIANGMEI Chen"][kc_accordion_tab title="Chen XIANGMEI" _id="564602"][kc_column_text _id="686529"]

Titre : Prédiction des performances de la communication acoustique sous-marine basée sur l'apprentissage automatique

Sujet : La transmission de liaison fiable des réseaux acoustiques sous-marins à longue portée est confrontée à de graves défis physiques, ce qui entraîne une série de difficultés pour la conception de liaisons fiables : i.L'environnement du canal acoustique sous-marin est complexe et dynamique : les conditions de propagation acoustique à longue portée le canal acoustique sous-marin a de grandes fluctuations et la plage de fluctuation peut atteindre 10 ~ 20 dB. Les conditions de rapport signal sur bruit de communication à différentes distances sont souvent très différentes. L'environnement complexe des canaux acoustiques sous-marins oblige à donner la priorité à la fluctuation des performances de communication dans la conception des liaisons. ii.La bande passante disponible du canal acoustique sous-marin est très étroite : à partir de la formule de perte de propagation, on peut voir que la perte de propagation est proportionnelle au coefficient d'absorption, et le coefficient d'absorption est positivement lié à la fréquence et à la distance de propagation du acoustique, c'est-à-dire que plus la fréquence et la distance de propagation de l'onde acoustique sont élevées, plus le coefficient d'absorption est élevé et plus la perte de propagation est importante. Par conséquent, seuls les signaux acoustiques à basse fréquence sont applicables dans la communication acoustique sous-marine à longue portée, c'est-à-dire que la bande passante disponible du canal acoustique sous-marin est sévèrement limitée. La bande passante disponible très limitée pose un problème critique à la conception de la liaison : l'exigence d'utilisation du spectre est très élevée.

Co-encadré avec : Fan Yang

Thèse commencée le : 21 décembre 2022

 

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Quentin HÉRAU" _id="581320"][kc_column_text _id="43788"]

Titre : Cartographie compressée et évolutive pour la navigation à long terme sur support embarqué à partir de données provenant de sources multiples

Sujet :Le sujet principal de ce doctorat porte sur l'amélioration de la cartographie embarquée pour la localisation à long terme dans un environnement dynamique en utilisant des données issues de sources diverses. La localisation et la cartographie sont des éléments fondamentaux pour permettre une conduite autonome sûre et des capacités d'automatisation avancées pour les véhicules de demain. Cependant, une cartographie précise est coûteuse tant par la résolution temporelle et la qualité des données requises. D’une part, les données cartographiques doivent avoir une résolution temporelle élevée : afin de maintenir la carte à jour, les données doivent être collectées fréquemment pour prendre en compte les modifications dynamiques de l’environnement. D’autre part, une cartographie précise nécessite des données de qualité : les systèmes de cartographie mobiles existant s’appuient sur une myriade de capteurs aux modalités différentes et complémentaire. Ce constat nous mène à la conclusion suivante : la cartographie à long terme et sur de larges zones nécessaire au déploiement de véhicule autonomes en utilisant les solutions d’acquisition mobiles existante n’est pas une solution viable car trop couteuse.
Une solution attrayante consiste à utiliser des données dites « crowd-sourced » ; issues de sources multiples et décentralisées, qui ont l’avantage d’avoir une grande résolution temporelle mais une qualité inférieure à celle des données obtenues à partir d'une plateforme d’acquisition spécifique plus coûteuse. La redondance des données « crowd-sourced » permet de capturer la dynamique de l'environnement pour mettre à jour la représentation cartographique utilisée par les algorithmes de localisation d’un véhicule autonome. L'analyse temporelle de ces données offre la possibilité de prédire les changements susceptibles de se produire et de distinguer les changements permanents des modifications structurelles temporaires. En utilisant des méthodes d’analyses centrées sur la donnée et avec des volumes d’information suffisants, la détection de ces changements pourra émerger directement des données de cartographie et permettra de prédire des comportements au-delà d’une nomenclature prédéfinie.
Afin de partager les informations provenant de sources diverses et décentralisées, les données acquises par un système embarqué doivent être compressées ou prétraitées à bord du système d’acquisition. Ceci implique deux contraintes distinctes : le traitement embarqué des données issues des capteurs ainsi que la compression des données cartographiques issues de ce traitement. Pour subvenir à la contrainte de l’embarqué, l’emploie d’algorithmes de cartographie légers pouvant être exécutés sur des dispositifs à faible capacité de calcul est à préconiser. Afin de réduire la quantité d’information devant être partagée, les données cartographique peuvent être filtrées en amont afin conserver seulement les caractéristiques cartographiques significatives pour des applications ciblées, telles que la localisation d’un véhicule à partir d’une carte.
La qualification de la qualité des cartes est également un aspect important pour un fournisseur de services de localisation, tel que celui utilisé dans une voiture autonome. En analysant la qualité et la densité des données traitées, un autodiagnostic peut offrir une qualification fine de la zone cartographiée. Une telle qualification permet de demander de manière proactive de nouvelles données sur une zone spécifique afin de maintenir le niveau de qualité cartographique requis pour faire fonctionner un véhicule autonome en toute sécurité.

Co-encadré avec : Cédric Demonceaux, Nathan Piasco et Pascal Vasseur

Thèse commencée le : 17 mars 2022

 

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Florian SCALVINI" _id="183149"][kc_column_text _id="695009"]

Titre : Développement de lunettes électroniques servant de système sonore d’aide à la locomotion des déficients visuels

Sujet : Le projet 3D Sound Glasses consiste à développer des lunettes électroniques permettant d’aider les personnes non-voyantes à éviter les obstacles lorsqu’elles se déplacent à pied. Ce système est basé sur une technologie qui convertit l’information visuo-spatiale collectée en trois dimensions par une caméra temps-de-vol ou stéréoscopique en un flux sonore spatialisé grâce à une méthode dite de substitution sensorielle.Le traitement de l’information qui convertit le flux vidéo acquis par une caméra temps-de-vol ou caméra stéréoscopique en un flux sonore spatialisé se fait en deux temps. Tout d’abord, le flux vidéo brut provenant de la caméra est filtré pour ne conserver que les éléments graphiques que l’on souhaite retenir. Une fois le flux vidéo simplifié, il doit être transformé lors d’une seconde étape en un flux sonore stéréophonique. Pour cela, nous associons chaque pixel graphique conservé lors de la première étape avec un pixel sonore. Pour que le système mobile soit pleinement opérationnel (autonomie, encombrement, température, réactivité) il est nécessaire que les algorithmes soient implémentés sur des cibles matérielles permettant le temps réel (par exemple FPGA ou GPU).

Co-encadré avec : Julien Dubois et Maxime Ambard

Thèse commencée le : 1er novembre 2020

 

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Reda BELAICHE" _id="78128"][kc_column_text _id="143248"]

Titre : Étude des émotions par l'analyse temps-réel des micro-expressions basée sur la vision par ordinateur

Sujet : Basée sur les techniques de vision par ordinateur, l'objectif de cette thèse est d'établir un système de reconnaissance des émotions sans contact et tempsréel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Le rendu des émotions par les expressions faciales n'est pas culturelle mais universelle. Ainsi, les émotions de base sont généralement réparties en six catégories. Récemment ces expressions ont également été divisées en deux classes : les macro et les micro-expressions. Les micro-expressions se produisent sur une durée comprise entre 1/4 et 1/25 de seconde. Elles sont involontaires et révèlent les véritables émotions de la personne. Cependant, la localisation et l'analyse de ces événements sont très compliquées du fait de leur faible durée et de leur faible intensité.

Co-encadré avec : Fan Yang et Dominique Ginhac

Thèse soutenue le : 30 septembre 2022

 

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Thomas HERRMANN" _id="255170"][kc_column_text _id="208767"]

Titre : Contrôle Non Destructif par thermographie active dynamique

Sujet : L'objectif de la thèse est de concevoir un système de contrôle non destructif par thermographie active mobile. Pour ce faire le travail porte sur la détermination du mouvement relatif du capteur par rapport à des 'marqueurs thermiques' sur l'objet observé. L’acquisition sera réalisée à l'aide d'un capteur infrarouge et d'un capteur RGB-D. On étudiera aussi l'observabilité de ces marqueurs pour définir plusieurs paramètres comme leur fréquence de régénération.

Co-encadré avec : Olivier Aubreton

Thèse commencée le : 1 octobre 2017

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Ammar AHMAD" _id="646949"][kc_column_text _id="78258"]

Titre : Manipulation virtuelle des représentations 3D d'objets culturels

Sujet : Une tendance croissante consiste à étudier la Réalité Virtuelle (RV) au service du patrimoine culturel. Les plus grands musées du monde proposent aujourd’hui à leurs visiteurs différents outils de réalité virtuelle ou augmentée pour une expérience culturelle enrichie. Dans une visite classique d’un musée, les objets culturels exposés ne sont pas accessibles. Les visiteurs ne peuvent pas les toucher ni les manipuler. L’un des apports de la RV est d’offrir une dimension supplémentaire d’interactivité : les visiteurs deviennent des acteurs placés au centre de l’expérimentation virtuelle et capables d’interagir avec les différentes entités culturelles composant l’univers simulé. Notre projet a pour cadre l’interaction 3D avancée au service des musées du futur. Sa finalité est de permettre aux visiteurs d’un musée une activité sensori-motrice dans un environnement virtuel ou augmenté : manipuler la maquette numérique d’objets culturels exposés. Le but est donc de suivre les interactions 3D entre les mains d'un visiteur évoluant dans le monde réel et des objets culturels 3D évoluant dans un monde virtuel. Le suivi visuel sans marqueur des mouvements de la main est un élément clé et populaire des études d'interaction dans de nombreux domaines tels que la réalité virtuelle et les interfaces naturelles homme-ordinateur. Bien que ce domaine de recherche ait été bien étudié au cours des dernières décennies, la plupart des approches ont considéré la main humaine en isolation et non pas en action ou en interaction avec l'environnement ou les autres parties articulées du corps humain. L'utilisation d'information contextuelle sur l'environnement (par exemple, la forme, la texture et la posture de l'objet dans la main) peut contraindre considérablement le problème de suivi. Les contraintes contextuelles les plus étudiées impliquent interaction avec des objets réels et non pas avec des objets virtuels qui reste tout un défi. Le suivi des mains manipulant des objets virtuels semble donc être une avenue de recherche particulièrement prometteuse.

Co-encadré avec : Albert Dipanda

Thèse commencée le : 7 octobre 2015

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Margarita KHOKHLOVA" _id="953278"][kc_column_text _id="188649"]

Titre : Évaluation clinique de la démarche à partir de données 3D

Sujet : L'analyse de la démarche clinique est généralement subjective, étant effectuée par des cliniciens observant la démarche des patients. Des alternatives à une telle analyse sont les systèmes basés sur les marqueurs et les systèmes basés sur les plates-formes au sol. Cependant, cette analyse standard de la marche nécessite des laboratoires spécialisés, des équipements coûteux et de longs délais d'installation et de post-traitement. Les chercheurs ont fait de nombreuses tentatives pour proposer une alternative basée sur la vision par ordinateur pour l'analyse de la demarche. Avec l'apparition de caméras 3D bon marche, le problème de l'évaluation qualitative de la démarche a été re-examiné. Les chercheurs ont réalisé le potentiel des dispositifs de cameras 3D pour les applications d'analyse de mouvement. Cependant, malgré des progrès très encourageants dans les technologies de détection 3D, leur utilisation réelle dans l'application clinique reste rare. Cette thèse propose des modèles et des techniques pour l'évaluation du mouvement à l'aide d'un capteur Microsoft Kinect. En particulier, nous étudions la possibilité d'utiliser différentes données fournies par une caméra RGBD pour l'analyse du mouvement et de la posture. Les principales contributions sont les suivantes. Nous avons réalisé une étude de l'etait de l'art pour estimer les paramètres importants de la démarche, la faisabilité de différentes solutions techniques et les méthodes d'évaluation de la démarche existantes. Ensuite, nous proposons un descripteur de posture basé sur un nuage de points 3D. Le descripteur conçu peut classer les postures humaines statiques a partir des données 3D. Nous construisons un système d'acquisition à utiliser pour l'analyse de la marche basée sur les donnees acquises par un capteur Kinect v2. Enfin, nous proposons une approche de détection de démarche anormale basée sur les données du squelette. Nous démontrons que notre outil d'analyse de la marche fonctionne bien sur une collection de données personnalisées et de repères existants. Notre méthode d'évaluation de la démarche affirme des avances significatives dans le domain, nécessite un équipement limité et est prêt à être utilisé pour l'évaluation de la démarche. 

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 19 novembre 2018

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Kyis ESSMAEEL" _id="493336"][kc_column_text _id="815346"]

Titre : Interprétation et analyse du mouvement humain sans marqueur par stéréovision active

Sujet : Réalisation d’une plate-forme d’acquisition d’images permettant de suivre les déplacements d’un sujet humain dans une pièce. L’objectif est de calculer certains paramètres globaux de mouvement, mais aussi de pouvoir activer des alarmes en fonction de certaines situations ou scénarii caractéristiques. Cette plateforme pourra servir pour la surveillance des malades (de type Alzheimer) mais aussi dans le cadre d’activités telles que la rééducation fonctionnelle ou la décomposition des mouvements des sportifs.

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 10 décembre 2015

[/kc_column_text][/kc_accordion_tab][/kc_accordion][/kc_tab][kc_tab title="Évennements" _id="230034"][kc_title text="SFRCQSAtIEludGVybmF0aW9uYWwgV29ya3Nob3Agb24gSHVtYW4gVHJhY2tpbmcgYW5kIEJlaGF2aW9yIEFuYWx5c2lz" _id="561415" type="h2"][kc_column_text _id="461028"]

Le workshop HTBA propose depuis 2016 une rencontre autour l'analyse du comportement humain à partir de la vision par ordinateur.
Il est chaque année organiser conjointement à la conférence SITIS - International Conference on SIGNAL IMAGE TECHNOLOGY & INTERNET BASED SYSTEMS.

Flyer de l'édition 2022.

[/kc_column_text][kc_row_inner column_align="middle" video_mute="no" _id="633401"][kc_column_inner width="100%" _id="678062"][kc_accordion _id="570490" close_all="yes"][kc_accordion_tab title="Champs d:apos:étude du workshop" _id="542037"][kc_column_text _id="820745"]

Le traitement des vidéos pour analyser le geste humain est un sujet brûlant et prometteur puisqu'il a été adopté dans de nombreuses applications telles que la surveillance vidéo, la surveillance médicale, la réalité virtuelle, l'interaction homme-machine, etc. La classe des personnes est au cœur des préoccupations de la recherche et de l'industrie et ouvre la voie vers l'intelligence artificielle. Comment un ordinateur peut-il faire la même interprétation d'une scène qu'un humain? Les possibilités sont infinies mais dépendent de l'efficacité des processus primaires : analyser et reconnaître les gestes et les comportements humains.
Ce workshop a pour objectif d’analyser les différentes significations, supports (capteurs 2D ou 3D) et contraintes (temps réel) qui permettent de répondre aux trois étapes principales de cette problématique : suivi, description et apprentissage. Les processus appliqués doivent être adaptés à la classe particulièrement complexe des personnes. La manière de suivre le mouvement, de décrire le geste et de reconnaître les comportements à différents niveaux (corps entier, jambes, main, etc.) sera mis en avant.

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Thématiques du workshop" _id="843768"][kc_column_text _id="466927"]

  • - Suivi de la position d'une ou plusieurs personnes
  • - Suivi de la pose d'une personne
  • - Video surveillance
  • - Applications médicales
  • - Reconnaissance de l'acte d'achat
  • - Analyse du mouvement 2D et 3D
  • - Reconnaissance de démarches
  • - Classification et apprentissage des actions
  • - Interfaçage avec des jeux-vidéos
  • - Implémentation légère pour système embarqué
  • - Traitement temps-réel
  • - Animation d'avatar
  • - Intégration du geste dans un environnement de réalité virtuel
  • - Analyse de vidéos de profondeur
  • - Suivi de la main
  • - Détection de personnes
  • - Reconnaissance des expressions faciales.

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Précédentes éditions" _id="46943"][kc_column_text _id="650756"]

[/kc_column_text][/kc_accordion_tab][kc_accordion_tab title="Articles récents" _id="744264"][kc_column_text _id="291716"]

  • - Anticipation of Everyday Life Manipulation Actions in Virtual Reality, Fatemeh Ziaeetabar, Stefan Pfeiffer, Minija Tamosiunaite and Florentin Wörgötter (HTBA 2019)
  • - Abnormal Crowd Behaviour Recognition in Surveillance Videos, Franjo Matković, Darijan Marčetić and Slobodan Ribarić (HTBA 2019)
  • - Time Unification for Local Binary Pattern Three Orthogonal Planes, Reda Belaiche, Cyrille Migniot, Dominique Ginhac and Fan Yang (HTBA 2019)
  • - Fine-grained Action Recognition in Assembly Work Scenes by Drawing Attention to the Hands, Takuya Kobayashi, Yoshimitsu Aoki, Shogo Shimizu, Katsuhiro Kusano and Seiji Okumura (HTBA 2019)
  • - Shot Detection in Racket Sport Video at the Frame Level Using A Recurrent Neural Network, Shuto Horie, Yuji Sato, Junko Furuyama, Masamoto Tanabiki and
    Yoshimitsu Aoki (HTBA 2019)
  • - Estimation of Scenes Contributing to Score in Tennis Video using Attention, Ryunosuke Kurose, Masaki Hayashi and Yoshimitsu Aoki (HTBA 2018)
  • - Action and intention recognition of pedestrians in urban traffic, Dimitrios Varytimidis, Fernando Alonso-Fernandez, Cristofer Englund and Boris Duran (HTBA 2018)
  • - Machine Learning for Video Action Recognition: a Computer Vision Approach Mikel Labayen, Naiara Aginako, Basilio Sierra, Igor G. Olaizola and Julián Floréz (HTBA 2018)
  • - Kinematic Covariance Based Abnormal Gait Detection, Margarita Khokhlova (HTBA 2018)
  • - Pholder: An Eye-Gaze assisted reading application on Android, Christiantia Wirawan, Hu Qingyao, Liu Yi, Senglidet Yean, Bu-Sung Lee, Fang Ran (HTBA 2017)
  • - Occupancy Analysis of Soccer Fields using Wide-Angle lens, Noor Ul Huda, Rikke Gade, Thomas B. Moeslund (HTBA 2017)
  • - Tracking Hands in Interaction with Objects: A Review, Ammar Ahmad (HTBA 2017)
  • - Automatic analysis of activities in sports arenas using thermal cameras, Rikke Gade, Thomas B. Moeslund (HTBA2016)
  • - Motion Analysis for Cooking Motion Recognition, Yuma Hijioka, Makoto Murakami, Tadahiko Kimoto (HTBA2016)
  • - An Approach for the Evaluation of Sleeping Behaviors Disorders in Patients with Cognitive Diseases: A Case Study, Antonio Coronato, Giovanni Paragliola (HTBA2016)
  • - Action Recognition Online with Hierarchical Self-Organizing Maps, Zahra Gharaee, Peter Gardenfors, Magnus Johnsson (HTBA2016)
  • - Tracking People in Dense Crowds using Supervoxels Shota Takayama, Teppei Suzuki, Yoshimittsu Aoki, Sho Isobe, Makoto Masuda(HTBA2016)
  • - Conversational group detection based on social context using graph clustering algorithm, Shoichi Inaba, Yoshimitsu Aoki (HTBA2016)
  • - 3D Visual-based Human Motion Descriptors: A Review, Margarita Khokhlova, Cyrille Migniot, Albert Dipanda (HTBA2016)

[/kc_column_text][/kc_accordion_tab][/kc_accordion][/kc_column_inner][/kc_row_inner][kc_title text="U3BlY2lhbCBpc3N1ZSBTZW5zb3JzIDogSHVtYW4gQWN0aXZpdHkgUmVjb2duaXRpb24gQmFzZWQgb24gSW1hZ2UgU2Vuc29ycyBhbmQgRGVlcCBMZWFybmluZw==" _id="503724" type="h2"][kc_column_text _id="545581"]

Il s'agit d'un special issue de la revue  Sensors (ISSN 1424-8220) appartenant à la section Sensing and Imaging.

Editeurs : Fakhreddine Ababsa et Cyrille Migniot

Date limite de soumission : 21 mai 2021

Site web

[/kc_column_text][/kc_tab][/kc_tabs][/kc_column][/kc_row]

cnrs:
0
membre_associe:
0

Log In

Create an account