Accéder directement au contenu Accéder directement à la navigation
Communication dans un congrès

A starting point for real-time human action detection

Résumé : Analyser les actions humaines dans des séquences vidéo implique la compréhension du contexte spatial et temporel de la scène. Les réseaux de neurones convolutifs (CNNs) montrent des performances impressionnantes dans ce domaine. Cependant, la plupart des méthodes existantes fonctionnent hors ligne, non en temps réel et ne sont pas adaptées aux scénarios réalistes comme la conduite autonome et la surveillance publique. De plus, elles sont souvent trop gourmandes en consommation d'énergie pour être implémentées sur des systèmes embarqués. Dans ce papier, nous traçons d'abord un état de l'art des méthodes de détection des actions basées sur les CNNs. Puis nous proposons une chaîne de traitement rapide grâce à la propagation des caractéristiques d'apparence en utilisant les flux optiques. Notre approche est testée sur la base de données publique UCF-101-24. Les résultats expérimentaux obtenus valident son utilisation pour la détection d'actions en temps réel (40 fps).
Liste complète des métadonnées

Littérature citée [13 références]  Voir  Masquer  Télécharger

https://hal-univ-bourgogne.archives-ouvertes.fr/hal-02412441
Contributeur : Dominique Ginhac <>
Soumis le : dimanche 15 décembre 2019 - 14:01:25
Dernière modification le : jeudi 5 mars 2020 - 17:52:57
Document(s) archivé(s) le : lundi 16 mars 2020 - 13:48:17

Fichier

cr_yang611.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

  • HAL Id : hal-02412441, version 1

Collections

Citation

Yu Liu, Fan Yang, Dominique Ginhac. A starting point for real-time human action detection. XXVIIème Colloque francophone de traitement du signal et des images (GRETSI 2019), Aug 2019, Lille, France. ⟨hal-02412441⟩

Partager

Métriques

Consultations de la notice

85

Téléchargements de fichiers

27