Des chercheurs de l’Université de Yokohama proposent VirSen1.0 un environnement virtuel permettant de rationaliser le développement de systèmes de reconnaissance des gestes humains basés sur des capteurs.

Researchers at Yokohama University propose VirSen1.0, a virtual environment to streamline the development of sensor-based human gesture recognition systems.

La technologie de reconnaissance des gestes fait face à d’importants défis en termes de configuration et de placement des capteurs, d’interprétation des données et de précision de l’apprentissage automatique. La mise en place efficace de capteurs pour capturer des mouvements nuancés, l’interprétation fiable des données résultantes et la garantie que les algorithmes d’apprentissage automatique reconnaissent avec précision les gestes souhaités restent des problèmes persistants. Ces problèmes non seulement entravent les performances optimales, mais limitent également l’adoption plus large des systèmes basés sur les gestes dans diverses applications.

Une équipe de chercheurs de l’Université de Yokohama, au Japon, a dévoilé un nouveau modèle de reconnaissance de gestes humains informatisés. Le travail porte sur le développement d’une interface utilisateur (UI) appelée VirSen 1.0, qui permet aux utilisateurs de disposer de manière interactive des capteurs optiques virtuels dans un espace virtuel pour concevoir un système d’estimation de gestes. Il permet aux utilisateurs d’expérimenter le placement des capteurs et d’évaluer leur impact sur la reconnaissance des gestes sans avoir besoin de capteurs physiques.

Les données sont collectées à des fins de formation en faisant exécuter un geste souhaité par un avatar. Les chercheurs discutent des travaux connexes dans les simulateurs pour la gestion des capteurs, mettant en évidence l’unicité de leur approche en combinant les situations, l’acquisition de données et la création de modèles dans un seul outil logiciel. Un classificateur à machine à vecteurs de support (SVM) composé d’un noyau de fonction à base radiale est utilisé en raison de l’impraticabilité de collecter une grande quantité de données d’entraînement. L’étude met en évidence l’importance de l’indicateur de contribution de l’importance des caractéristiques de permutation (PFI) pour identifier les emplacements des capteurs qui conduisent à des taux de reconnaissance élevés. Le PFI mesure l’impact des caractéristiques individuelles sur la prédiction du modèle en les organisant. Le PFI fournit des informations sur les caractéristiques, aidant à optimiser le placement des capteurs lors du processus d’essai et d’erreur.

Le capteur optique de cette recherche comprend une LED infrarouge et un transistor photodétecteur. L’acquisition de données commence lorsque les valeurs du capteur dépassent un seuil spécifique par rapport à l’image précédente. Les gestes humains sont enregistrés à l’aide de Xsens, un outil de capture de mouvement capturant des capteurs inertiels. Il a capturé six gestes en 3D, dont la position accroupie, le saut, l’inclinaison et le lever des mains. La mise en œuvre comprend une représentation visuelle de l’interface du simulateur, permettant aux utilisateurs de placer des objets, de collecter des données, de visualiser les valeurs des capteurs et d’évaluer la précision avec l’indicateur de contribution du PFI.

L’équipe de recherche prévoit d’améliorer le simulateur, en ajoutant des fonctionnalités supplémentaires pour vérifier les placements et les résultats passés, en suggérant des emplacements de capteurs en fonction de l’indicateur de contribution du PFI. À l’avenir, les auteurs prévoient de résoudre certaines limitations, notamment de ne pas prendre en compte l’influence des vêtements sur la précision de la reconnaissance, le manque de bruit et de modélisation des erreurs des capteurs, la vitesse de traitement et les restrictions sur les cibles de reconnaissance.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Science des données

Une nouvelle recherche en IA présente AttrPrompt un générateur de données d'entraînement LLM pour un nouveau paradigme dans l'apprentissage sans étiquette.

Les performances des grands modèles de langage (LLMs) ont été impressionnantes dans de nombreuses applications de tra...

AI

Créez une alternative à Langchain à partir de zéro en utilisant OceanBase

De l'intégration de l'IA avec OceanBase à la formation du modèle et à la création d'un chatbot, nous explorerons le s...

AI

Chattez avec des PDF | Donnez du pouvoir à l'interaction textuelle avec Python et OpenAI

Introduction Dans un monde rempli d’informations, les documents PDF sont devenus un élément essentiel pour part...

AI

Pourquoi des ensembles inclusifs d'images nous aident à créer de meilleurs produits

Nous avons travaillé avec TONL, une entreprise d'images en stock, pour créer des ensembles de données plus représenta...

AI

Améliorez l'apprentissage avec les plugins ChatGPT pour les étudiants et les institutions

Introduction ChatGPT a rapidement gagné en importance en tant que l’un des modèles d’IA conversationnelle...

AI

Intelligence Artificielle (IA) Utilisant des Techniques d'Apprentissage Profond pour Améliorer les Systèmes d'Aide à la Conduite Avancée (ADAS)

L'apprentissage profond améliore les systèmes d'assistance avancée à la conduite (ADAS) grâce à des données de capteu...