Aller au menu Aller au contenu Aller à la recherche
  • Français
  • English

Publications Hal

Fiche de MIGNIOT Cyrille

Adresse : 9 avenue Alain Savary - BP47870 - 21078 DIJON
Localisation : Bâtiment I3M - Bureau 315
Tél. : 03 80 39 36 92
E-mail : cyrille.migniot@u-bourgogne.fr
Equipe : CORES
Fonction : Enseignant-Chercheur
Titre : MCF

Micro-expressions et reconnaissance d'émotions

L'informatique affective consiste à concevoir et à développer des systèmes pouvant reconnaître, interpréter, analyser et synthétiser les affects humains (sentiment, humeur, émotion et sensation). Cette branche moderne de l'informatique permet d'analyser les états émotionnels d'une personne et de fournir une réponse adaptée et appropriée de la part de l'interface homme machine. Basée sur les techniques de vision par ordinateur, l'objectif de ce projet est d'établir un système de reconnaissance des émotions sans contact et temps réel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Dans un premier temps, une caméra rapide sera utilisée pour la capture des micro-expressions. Une nouvelle base de données sera créée dans des conditions réelles d'interaction homme/machine. Ensuite, des algorithmes déjà existants de reconnaissance des macro-expressions seront testés puis améliorés sur des images/vidéos sélectionnées afin de les généraliser au cas des micro-expressions. Certaines nouvelles approches spécifiques à l'analyse des micro-expressions et utilisant des techniques de Machine Learning seront étudiées et proposées.

Partenaires : Fan Yang, Reda Belaiche, Dominique Ginhac, Yannick Benezeth, Rita Meziati Sabour

Publications : ICIAP19SITIS19

L'apex est l'instant de la micro-expression de plus haute intensité.

Le LBP-TOP est un descripteur de micro-expressions

Analyse de démarches

L’analyse du mouvement humain est un sujet primordial notamment dans le domaine médical. Pour une analyse pertinente, il faut étudier la déformation locale du corps au cours du temps. C’est à ce niveau de précision qu’une anomalie peut-être détectée ou qu’une guérison peut être appréciée. Pour une représentation efficace du corps, les données 3D sont préférables. En effet elles forment une représentation très représentative et descriptive des formes humaines. Elles ont de plus l’avantage de ne pas être perturbées par la couleur ou les imperfections de la peau. Ces données sur le corps de la personne peuvent prendre la forme d’un nuage de points 3D. La déformation du corps est alors obtenue par un suivi du nuage de points qui détermine l’évolution temporelle du nuage.
Le projet a été réalisé en collaboration avec la société Proteor, spécialisée dans la fourniture d’appareillage de rééducation (corsets et prothèses). L'objectif de ce travail est de fournir un outil permettant d’analyser l’effet d’une prothèse (ou d’un corset).. Un classifieur a été mis en place pour reconnaître une démarche pathologique. La reconnaissance est effectuée à partir d'un LSTM sur les angles de flexion des jambes. Les principales contributions sont la création d'une nouvelle base de données de démarches à partir d'une caméra kinect (données de couleur, de profondeur et squelette), puis l'introduction de nouvelles caractéristiques descriptives du mouvement et enfin la mise en place d'un classifieur LSTM utilisant ces caractéristiques pour la reconnaissance de cas pathologiques.

Partenaires : Albert Dipanda et Margarita Khokhlova.

Publications : AIM19MTAP18SITIS18VISAPP18SITIS16

Variation du nuage de points sur plusieurs actions.

Processus de classification de démarche par matrice de covariance.

Héritage culturel et réalité virtuelle

De nos jours les outils informatiques ont considérablement augmenté le besoin de conservation et de distribution de notre héritage culturel. Chaque œuvre artistique, chaque trace de notre passé est enregistrée afin d’en assurer la pérennité et de la rendre accessible à chacun. De plus l’utilisation courante de technologies avancées a rendu le public exigeant sur la qualité des données qui lui sont fournies et de nouveaux supports pédagogiques pour l’enseignement ont été introduits. Il est à noter que les artistes eux même se sont rendus compte du potentiel de l’informatique et produisent des œuvres à partir de systèmes numériques comme des caméras haute résolution ou même des téléphones portables. Il convient de définir des outils pour rendre l’accès à ces données ludique, agréable et original. Cela par exemple par un accès aux parties des œuvres habituellement cachées, par la reconstruction de parties manquantes ou par l’utilisation de la réalité virtuelle. Ces outils seront destinés à la fois au grand public, aux spécialistes et aux chercheurs.
Pour permettre un accès ludique et agréable aux œuvres, la représentation virtuelle est un outil précieux. En effet celle-ci sera accessible quel que soit l’endroit où l’usager se trouve et ce dernier pourra la manipuler sans crainte de dégrader une œuvre inestimable et unique. Les techniques actuelles d’acquisition permettent d’obtenir aisément une représentation 3D de grande qualité de n’importe quel objet. Le problème est alors de permettre une interaction stimulante entre l’utilisateur et la représentation 3D.

Partenaires : Albert Dipanda et Ammar Ahmad.

Publications : IVC19SITIS17CH15

Présentation du projet Spectacleenligne

Boucle d’interaction virtuelle

Détéction 3D

La reconstruction tridimensionnelle à partir de séquences vidéo multi-caméra pour l’analyse ou le suivi du mouvement de personnages ou plus généralement d’objets déformables en temps réel et sans marqueur est un sujet d’une grande actualité au sein de la communauté internationale du domaine de par de nombreuses applications présentes et surtout à venir. L’objectif de du projet RAHA est la mise en place d’une plate-forme d’acquisition d’images permettant la reconstruction 3D et l’analyse du mouvement temps réel d’un sujet déformable. L’acquisition est réalisée à partir d’un ensemble de plusieurs Kinects disposées de façon à obtenir une vision 3D selon une vue à 360°. Nous avons mis en place une méthode de détection de personnes à partir de ces données. Le processus de descripteur HOG est modifié pour ce dessein. La normale de chaque point 3D de l’acquisition donne une bonne vision de la forme de l’enveloppe d’une personne; elle remplace le gradient dans notre descripteur. La quantification de l’orientation 3D pour le calcul des histogrammes est réalisé par projection des normales sur les faces d’un polyèdre régulier.

Partenaires : Albert Dipanda et Kyis Essmaeel.

Publications : MTAP19VISAPP16ORASIS15

Détection de personnes à partir d'un nuage de points complet

Estimation du mouvement par thermographie infrarouge

Le contrôle non destructif de matériaux peut se réaliser par le biais de la thermographie infrarouge. En soumettant l'élément à contrôler à une excitation extérieure maitrisée et en analysant la propagation de la chaleur dans la zone examinée, il est possible de mettre en évidence des défauts surfaciques ou su surfaciques telles que des fissures, des délaminages ou de la corrosion. L'excitation locale du matériau par une source laser apparaît comme une approche pertinente en terme de localisation de défaut ou de caractérisation  de matériaux anisotropes.
L'objectif de se travail est de concevoir un système de contrôle non destructif par thermographie active mobile. Le travail porte sur la détermination du mouvement relatif du capteur par rapport à des 'marqueurs thermiques' sur l'objet observé.

Partenaires : Olivier Aubreton et Thomas Herrmann

Publication : QCAV19

Image thermique d'une mire pour la calibration

UFR Sciences et Techniques

M2 - Traitement numérique des vidéos

M1 - Réseaux

M1 - Traitement des images

L1R - Informatique

ESIREM

GEIPI 1A - Programmation C

REVUES INTERNATIONALES

Ammar Ahmad, Cyrille Migniot, Albert Dipanda Hand Pose Estimation and Tracking in Real and Virtual Interaction : A Review, Image and Vision Computing, Elsevier, 2019

Kyis Essmaeel, Cyrille Migniot, Albert Dipanda, Luigi Gallo, Ernesto Damiani, Guiseppe De Pietro, A New 3D Descriptor For Human Classification: Application For Human Detection in a Multi-Kinect System, Multimedia Tools and Applications, Springer, 2019

Margarita Khokhlova, Cyrille Migniot, Alexei Morozov, Olga Sushkova, Albert Dipanda, Normal and pathological gait classification LSTM model, Artificial Intelligence in Medicine Volume 94, Pages 54-66 , 2019 – https://doi.org/10.1016/j.artmed.2018.12.007

Margarita Khokhlova, Cyrille Migniot, Albert Dipanda, Advances in Description of 3D Human Motion, Multimedia Tools and Applications, Springer, 2018

Cyrille Migniot, Fakhr-Eddine Ababsa, Hybrid 3D-2D human tracking in a top view, Journal of Real-Time Image Processing, Springer Verlag (Germany), 2014 – DOI:10.1007/s11554-014-0429-7

CONFÉRENCES INTERNATIONALES

Reda Belaïche, Cyrille Migniot, Dominique Ginhac and Fan Yang Time Unification on Local Binary Patterns Three Orthogonal Planes for Facial Expression Recognition, International Conference on Signal Image technology & Internet Based Systems (SITIS2019)2019, Sorrento, Italy.

Reda Belaïche, Rita Meziati Sabour, Cyrille Migniot, Yannick Benezeth, Dominique Ginhac, Keisuke Nakamura, Randy Gomez and Fan Yang Emotional State Recognition with Micro-Expressions and Pulse Rate Variability, International Conference on Image Analysis and Processing (ICIAP2019)2019, Trento, Italy.

Thomas Herrmann, Cyrille Migniot, Olivier Aubreton Cracks Detection on Glass Object based on Active Thermography Approach, Quality Control for Artificial Vision (QCAV2019)2019, Mulhouse.

Margarita Khokhlova, Cyrille Migniot, Albert Dipanda, Kinematic Covariance Based Abnormal Gait Detection, International Conference on Signal Image technology & Internet Based Systems (SITIS2018) 2018, Las Palmas, Spain.

Margarita Khokhlova, Cyrille Migniot, Albert Dipanda, 3D Point Cloud Descriptor for Posture Recognition, International Conference on Computer Vision Theory and Applications (VISAPP 2018) 2018, Funchal Madeira, Portugal.

Ammar Ahmad, Cyrille Migniot, Albert Dipanda, Tracking Hands in Interaction with Objects: A Review , International Conference on Signal Image technology & Internet Based Systems (SITIS 2017) 2017, Jaipur, India.

Margarita Khokhlova, Cyrille Migniot, Albert Dipanda, 3D Visual-based Human Motion Descriptors: A Review , International Conference on Signal Image technology & Internet Based Systems (SITIS 2016) 2016, Naples, Italy.

Kyis Essmaeel, Cyrille Migniot, Albert Dipanda, 3D Descriptor for an Oriented-Human Classification from Complete Point Cloud , International Conference on Computer Vision Theory and Applications (VISAPP 2016) 2016, Rome, Italy.

Rémi Ronfard, Vineet Gandhi, Benoit Encelle, Pierre-Antoine Champin, Thomas Steiner, Nicolas Sauret, Cyrille Migniot, Capturing and Indexing Rehearsals: The Design and Usage of a Digital Archive of Performing Arts , Cultural Heritage 2015, Granada, Spain

Cyrille Migniot, Fakhr-Eddine Ababsa, Part-based 3D multi-person tracking using depth cue in a top view , International Conference on Computer Vision Theory and Applications (VISAPP 2014) 2014, Lisbon, Portugal. 3, pp.419–426

Cyrille Migniot, Fakhr-Eddine Ababsa, 3D Human Tracking in a Top View Using Depth Information Recorded by the Xtion Pro-Live Camera, International Symposium on Visual Computing (ISVC 2013) 2013, Rethymnon, Crete, Greece. (PART 2), pp.603–612, Lecture Notes in Computer Science – DOI:10.1007/978-3-642-41939-3_59

Cyrille Migniot, Fakhr-Eddine Ababsa, 3D Human Tracking from Depth Cue in a Buying Behavior Analysis Context, International Conference on Computer Analysis of Images and Patterns (CAIP 2013) 2013, York, United Kingdom. 8047, pp.482–489, Lecture Notes in Computer Science – DOI:10.1007/978-3-642-40261-6_58

Cyrille Migniot, Pascal Bertolino, Jean-Marc Chassery Iterative Human Segmentation from Detection Windows Using Contour Segment Analysis, International Conference on Computer Vision Theory and Applications (VISAPP 2013) 2013, Barcelone, Spain. pp. 405–412

Cyrille Migniot, Pascal Bertolino, Jean-Marc Chassery Automatic people segmentation with a template-driven graph cut, International Conference on Image Processing (ICIP 2011) 2011, Bruxelles, Belgium. pp. 3149–3152 – DOI:10.1109/ICIP.2011.6116335

Cyrille Migniot, Pascal Bertolino, Jean-Marc Chassery Contour segment analysis for human silhouette pre-segmentation, International Conference on Computer Vision Theory and Applications (VISAPP 2010) Angers France. pp 74–80

CONFÉRENCES NATIONALES

Alexei A. Morozaov, Olga S. Sushkova, Margarita Khokhlova, Cyrille Migniot Development of agent logic programming means for multichannel intelligent video surveillance., RENSIT: Radioelectronics. Nanosystems. Information technologies V. 10, No. 1. – p. 101-116, 2018

Kyis Essmaeel, Cyrille Migniot, Albert Dipanda Une nouvelle approche de classification de personnes à partir d'une plate-forme multi-kinect, Journées francophones des jeunes chercheurs en vision par ordinateur (ORASIS 2015) 2015, Amiens

Cyrille Migniot, Pascal Bertolino, Jean-Marc Chassery Segmentation automatique de personnes par coupe de graphe et gabarits, colloque GRETSI (GRETSI 2011) 2011, Bordeaux

Doctorants

Reda BELAICHE

Titre : Étude des émotions par l'analyse temps-réel des micro-expressions basée sur la vision par ordinateur

Sujet : Basée sur les techniques de vision par ordinateur, l'objectif de cette thèse est d'établir un système de reconnaissance des émotions sans contact et tempsréel. Il devra respecter plusieurs des contraintes générales liées aux applications grand-public : robustesse et flexibilité, faible coût, usage simple et capacité à être embarqué à moindre coût énergétique. Le rendu des émotions par les expressions faciales n'est pas culturelle mais universelle. Ainsi, les émotions de base sont généralement réparties en six catégories. Récemment ces expressions ont également été divisées en deux classes : les macro et les micro-expressions. Les micro-expressions se produisent sur une durée comprise entre 1/4 et 1/25 de seconde. Elles sont involontaires et révèlent les véritables émotions de la personne. Cependant, la localisation et l'analyse de ces événements sont très compliquées du fait de leur faible durée et de leur faible intensité.

Co-encadré avec : Fan Yang et Dominique Ginhac

Thèse commencée le : 5 octobre 2018

 

Thomas HERRMANN

Titre : Contrôle Non Destructif par thermographie active dynamique

Sujet : L'objectif de la thèse est de concevoir un système de contrôle non destructif par thermographie active mobile. Pour ce faire le travail porte sur la détermination du mouvement relatif du capteur par rapport à des 'marqueurs thermiques' sur l'objet observé. L’acquisition sera réalisée à l'aide d'un capteur infrarouge et d'un capteur RGB-D. On étudiera aussi l'observabilité de ces marqueurs pour définir plusieurs paramètres comme leur fréquence de régénération.

Co-encadré avec : Olivier Aubreton

Thèse commencée le : 1 octobre 2017

Ammar AHMAD

Titre : Manipulation virtuelle des représentations 3D d'objets culturels

Sujet : Une tendance croissante consiste à étudier la Réalité Virtuelle (RV) au service du patrimoine culturel. Les plus grands musées du monde proposent aujourd’hui à leurs visiteurs différents outils de réalité virtuelle ou augmentée pour une expérience culturelle enrichie. Dans une visite classique d’un musée, les objets culturels exposés ne sont pas accessibles. Les visiteurs ne peuvent pas les toucher ni les manipuler. L’un des apports de la RV est d’offrir une dimension supplémentaire d’interactivité : les visiteurs deviennent des acteurs placés au centre de l’expérimentation virtuelle et capables d’interagir avec les différentes entités culturelles composant l’univers simulé. Notre projet a pour cadre l’interaction 3D avancée au service des musées du futur. Sa finalité est de permettre aux visiteurs d’un musée une activité sensori-motrice dans un environnement virtuel ou augmenté : manipuler la maquette numérique d’objets culturels exposés. Le but est donc de suivre les interactions 3D entre les mains d'un visiteur évoluant dans le monde réel et des objets culturels 3D évoluant dans un monde virtuel. Le suivi visuel sans marqueur des mouvements de la main est un élément clé et populaire des études d'interaction dans de nombreux domaines tels que la réalité virtuelle et les interfaces naturelles homme-ordinateur. Bien que ce domaine de recherche ait été bien étudié au cours des dernières décennies, la plupart des approches ont considéré la main humaine en isolation et non pas en action ou en interaction avec l'environnement ou les autres parties articulées du corps humain. L'utilisation d'information contextuelle sur l'environnement (par exemple, la forme, la texture et la posture de l'objet dans la main) peut contraindre considérablement le problème de suivi. Les contraintes contextuelles les plus étudiées impliquent interaction avec des objets réels et non pas avec des objets virtuels qui reste tout un défi. Le suivi des mains manipulant des objets virtuels semble donc être une avenue de recherche particulièrement prometteuse.

Co-encadré avec : Albert Dipanda

Thèse commencée le : 7 octobre 2015

Margarita KHOKHLOVA

Titre : Évaluation clinique de la démarche à partir de données 3D

Sujet : L'analyse de la démarche clinique est généralement subjective, étant effectuée par des cliniciens observant la démarche des patients. Des alternatives à une telle analyse sont les systèmes basés sur les marqueurs et les systèmes basés sur les plates-formes au sol. Cependant, cette analyse standard de la marche nécessite des laboratoires spécialisés, des équipements coûteux et de longs délais d'installation et de post-traitement. Les chercheurs ont fait de nombreuses tentatives pour proposer une alternative basée sur la vision par ordinateur pour l'analyse de la demarche. Avec l'apparition de caméras 3D bon marche, le problème de l'évaluation qualitative de la démarche a été re-examiné. Les chercheurs ont réalisé le potentiel des dispositifs de cameras 3D pour les applications d'analyse de mouvement. Cependant, malgré des progrès très encourageants dans les technologies de détection 3D, leur utilisation réelle dans l'application clinique reste rare. Cette thèse propose des modèles et des techniques pour l'évaluation du mouvement à l'aide d'un capteur Microsoft Kinect. En particulier, nous étudions la possibilité d'utiliser différentes données fournies par une caméra RGBD pour l'analyse du mouvement et de la posture. Les principales contributions sont les suivantes. Nous avons réalisé une étude de l'etait de l'art pour estimer les paramètres importants de la démarche, la faisabilité de différentes solutions techniques et les méthodes d'évaluation de la démarche existantes. Ensuite, nous proposons un descripteur de posture basé sur un nuage de points 3D. Le descripteur conçu peut classer les postures humaines statiques a partir des données 3D. Nous construisons un système d'acquisition à utiliser pour l'analyse de la marche basée sur les donnees acquises par un capteur Kinect v2. Enfin, nous proposons une approche de détection de démarche anormale basée sur les données du squelette. Nous démontrons que notre outil d'analyse de la marche fonctionne bien sur une collection de données personnalisées et de repères existants. Notre méthode d'évaluation de la démarche affirme des avances significatives dans le domain, nécessite un équipement limité et est prêt à être utilisé pour l'évaluation de la démarche. 

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 19 novembre 2018

Kyis ESSMAEEL

Titre : Interprétation et analyse du mouvement humain sans marqueur par stéréovision active

Sujet : Réalisation d’une plate-forme d’acquisition d’images permettant de suivre les déplacements d’un sujet humain dans une pièce. L’objectif est de calculer certains paramètres globaux de mouvement, mais aussi de pouvoir activer des alarmes en fonction de certaines situations ou scénarii caractéristiques. Cette plateforme pourra servir pour la surveillance des malades (de type Alzheimer) mais aussi dans le cadre d’activités telles que la rééducation fonctionnelle ou la décomposition des mouvements des sportifs.

Co-encadré avec : Albert Dipanda

Thèse soutenue le : 10 décembre 2015

HTBA - International Workshop on Human Tracking and Behavior Analysis

Le workshop HTBA propose depuis 2016 une rencontre autour l'analyse du comportement humain à partir de la vision par ordinateur.
Il est chaque année organiser conjointement à la conférence SITIS – International Conference on SIGNAL IMAGE TECHNOLOGY & INTERNET BASED SYSTEMS.

Champs d'étude du workshop

Le traitement des vidéos pour analyser le geste humain est un sujet brûlant et prometteur puisqu'il a été adopté dans de nombreuses applications telles que la surveillance vidéo, la surveillance médicale, la réalité virtuelle, l'interaction homme-machine, etc. La classe des personnes est au cœur des préoccupations de la recherche et de l'industrie et ouvre la voie vers l'intelligence artificielle. Comment un ordinateur peut-il faire la même interprétation d'une scène qu'un humain? Les possibilités sont infinies mais dépendent de l'efficacité des processus primaires : analyser et reconnaître les gestes et les comportements humains.
Ce workshop a pour objectif d’analyser les différentes significations, supports (capteurs 2D ou 3D) et contraintes (temps réel) qui permettent de répondre aux trois étapes principales de cette problématique : suivi, description et apprentissage. Les processus appliqués doivent être adaptés à la classe particulièrement complexe des personnes. La manière de suivre le mouvement, de décrire le geste et de reconnaître les comportements à différents niveaux (corps entier, jambes, main, etc.) sera mis en avant.

Thématiques du workshop

  • – Suivi de la position d'une ou plusieurs personnes
  • – Suivi de la pose d'une personne
  • – Video surveillance
  • – Applications médicales
  • – Reconnaissance de l'acte d'achat
  • – Analyse du mouvement 2D et 3D
  • – Reconnaissance de démarches
  • – Classification et apprentissage des actions
  • – Interfaçage avec des jeux-vidéos
  • – Implémentation légère pour système embarqué
  • – Traitement temps-réel
  • – Animation d'avatar
  • – Intégration du geste dans un environnement de réalité virtuel
  • – Analyse de vidéos de profondeur
  • – Suivi de la main
  • – Détection de personnes
  • – Reconnaissance des expressions faciales.

Articles récents

  • – Anticipation of Everyday Life Manipulation Actions in Virtual Reality, Fatemeh Ziaeetabar, Stefan Pfeiffer, Minija Tamosiunaite and Florentin Wörgötter (HTBA 2019)
  • – Abnormal Crowd Behaviour Recognition in Surveillance Videos, Franjo Matković, Darijan Marčetić and Slobodan Ribarić (HTBA 2019)
  • – Time Unification for Local Binary Pattern Three Orthogonal Planes, Reda Belaiche, Cyrille Migniot, Dominique Ginhac and Fan Yang (HTBA 2019)
  • – Fine-grained Action Recognition in Assembly Work Scenes by Drawing Attention to the Hands, Takuya Kobayashi, Yoshimitsu Aoki, Shogo Shimizu, Katsuhiro Kusano and Seiji Okumura (HTBA 2019)
  • – Shot Detection in Racket Sport Video at the Frame Level Using A Recurrent Neural Network, Shuto Horie, Yuji Sato, Junko Furuyama, Masamoto Tanabiki and
    Yoshimitsu Aoki (HTBA 2019)
  • – Estimation of Scenes Contributing to Score in Tennis Video using Attention, Ryunosuke Kurose, Masaki Hayashi and Yoshimitsu Aoki (HTBA 2018)
  • – Action and intention recognition of pedestrians in urban traffic, Dimitrios Varytimidis, Fernando Alonso-Fernandez, Cristofer Englund and Boris Duran (HTBA 2018)
  • – Machine Learning for Video Action Recognition: a Computer Vision Approach Mikel Labayen, Naiara Aginako, Basilio Sierra, Igor G. Olaizola and Julián Floréz (HTBA 2018)
  • – Kinematic Covariance Based Abnormal Gait Detection, Margarita Khokhlova (HTBA 2018)
  • – Pholder: An Eye-Gaze assisted reading application on Android, Christiantia Wirawan, Hu Qingyao, Liu Yi, Senglidet Yean, Bu-Sung Lee, Fang Ran (HTBA 2017)
  • – Occupancy Analysis of Soccer Fields using Wide-Angle lens, Noor Ul Huda, Rikke Gade, Thomas B. Moeslund (HTBA 2017)
  • – Tracking Hands in Interaction with Objects: A Review, Ammar Ahmad (HTBA 2017)
  • – Automatic analysis of activities in sports arenas using thermal cameras, Rikke Gade, Thomas B. Moeslund (HTBA2016)
  • – Motion Analysis for Cooking Motion Recognition, Yuma Hijioka, Makoto Murakami, Tadahiko Kimoto (HTBA2016)
  • – An Approach for the Evaluation of Sleeping Behaviors Disorders in Patients with Cognitive Diseases: A Case Study, Antonio Coronato, Giovanni Paragliola (HTBA2016)
  • – Action Recognition Online with Hierarchical Self-Organizing Maps, Zahra Gharaee, Peter Gardenfors, Magnus Johnsson (HTBA2016)
  • – Tracking People in Dense Crowds using Supervoxels Shota Takayama, Teppei Suzuki, Yoshimittsu Aoki, Sho Isobe, Makoto Masuda(HTBA2016)
  • – Conversational group detection based on social context using graph clustering algorithm, Shoichi Inaba, Yoshimitsu Aoki (HTBA2016)
  • – 3D Visual-based Human Motion Descriptors: A Review, Margarita Khokhlova, Cyrille Migniot, Albert Dipanda (HTBA2016)

identite:
Cyrille MIGNIOT
titre:
MCF
fonction:
Enseignant-Chercheur
equipe:
a:1:{i:0;s:5:"CORES";}
adresse_postale:
9 avenue Alain Savary - BP47870 - 21078 DIJON
telephone:
03 80 39 36 92
localisation:
Bâtiment I3M - Bureau 315
courriel:
cyrille.migniot@u-bourgogne.fr
url_site_perso_ou_professionnel:
travaux_de_recherche_passes:

https://haltools.archives-ouvertes.fr/Public/afficheRequetePubli.php?auteur_exp=Cyrille+Migniot&CB_auteur=oui&CB_titre=oui&CB_article=oui&CB_vignette=oui&langue=Anglais&tri_exp=annee_publi&tri_exp2=typdoc&tri_exp3=date_publi&ordre_aff=TA&Fen=Aff&css=../css/VisuRubriqueEncadre.css

responsabilité:
enseignements_dispenses:
autres_activites:
photo_de_profil:
24646
kc_data:
a:7:{s:4:"mode";s:2:"kc";s:7:"classes";s:0:"";s:3:"css";s:0:"";s:9:"max_width";s:0:"";s:9:"thumbnail";s:0:"";s:9:"collapsed";s:0:"";s:9:"optimized";s:0:"";}
kc_raw_content:
cnrs:
0
membre_associe:
0

Log In

Create an account