Des chercheurs de l’Université de Yokohama proposent VirSen1.0 un environnement virtuel permettant de rationaliser le développement de systèmes de reconnaissance des gestes humains basés sur des capteurs.
Researchers at Yokohama University propose VirSen1.0, a virtual environment to streamline the development of sensor-based human gesture recognition systems.
La technologie de reconnaissance des gestes fait face à d’importants défis en termes de configuration et de placement des capteurs, d’interprétation des données et de précision de l’apprentissage automatique. La mise en place efficace de capteurs pour capturer des mouvements nuancés, l’interprétation fiable des données résultantes et la garantie que les algorithmes d’apprentissage automatique reconnaissent avec précision les gestes souhaités restent des problèmes persistants. Ces problèmes non seulement entravent les performances optimales, mais limitent également l’adoption plus large des systèmes basés sur les gestes dans diverses applications.
Une équipe de chercheurs de l’Université de Yokohama, au Japon, a dévoilé un nouveau modèle de reconnaissance de gestes humains informatisés. Le travail porte sur le développement d’une interface utilisateur (UI) appelée VirSen 1.0, qui permet aux utilisateurs de disposer de manière interactive des capteurs optiques virtuels dans un espace virtuel pour concevoir un système d’estimation de gestes. Il permet aux utilisateurs d’expérimenter le placement des capteurs et d’évaluer leur impact sur la reconnaissance des gestes sans avoir besoin de capteurs physiques.
Les données sont collectées à des fins de formation en faisant exécuter un geste souhaité par un avatar. Les chercheurs discutent des travaux connexes dans les simulateurs pour la gestion des capteurs, mettant en évidence l’unicité de leur approche en combinant les situations, l’acquisition de données et la création de modèles dans un seul outil logiciel. Un classificateur à machine à vecteurs de support (SVM) composé d’un noyau de fonction à base radiale est utilisé en raison de l’impraticabilité de collecter une grande quantité de données d’entraînement. L’étude met en évidence l’importance de l’indicateur de contribution de l’importance des caractéristiques de permutation (PFI) pour identifier les emplacements des capteurs qui conduisent à des taux de reconnaissance élevés. Le PFI mesure l’impact des caractéristiques individuelles sur la prédiction du modèle en les organisant. Le PFI fournit des informations sur les caractéristiques, aidant à optimiser le placement des capteurs lors du processus d’essai et d’erreur.
- Un algorithme d’apprentissage inspiré du cerveau permet la métaplasticité dans les réseaux neuronaux artificiels et à impulsions.
- Les deux nouvelles entreprises de Meta AI pour l’équité en vision par ordinateur introduction de la licence pour DINOv2 et publication de FACET.
- Principaux assistants de messagerie AI (septembre 2023)
Le capteur optique de cette recherche comprend une LED infrarouge et un transistor photodétecteur. L’acquisition de données commence lorsque les valeurs du capteur dépassent un seuil spécifique par rapport à l’image précédente. Les gestes humains sont enregistrés à l’aide de Xsens, un outil de capture de mouvement capturant des capteurs inertiels. Il a capturé six gestes en 3D, dont la position accroupie, le saut, l’inclinaison et le lever des mains. La mise en œuvre comprend une représentation visuelle de l’interface du simulateur, permettant aux utilisateurs de placer des objets, de collecter des données, de visualiser les valeurs des capteurs et d’évaluer la précision avec l’indicateur de contribution du PFI.
L’équipe de recherche prévoit d’améliorer le simulateur, en ajoutant des fonctionnalités supplémentaires pour vérifier les placements et les résultats passés, en suggérant des emplacements de capteurs en fonction de l’indicateur de contribution du PFI. À l’avenir, les auteurs prévoient de résoudre certaines limitations, notamment de ne pas prendre en compte l’influence des vêtements sur la précision de la reconnaissance, le manque de bruit et de modélisation des erreurs des capteurs, la vitesse de traitement et les restrictions sur les cibles de reconnaissance.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Découvrez AnomalyGPT Une nouvelle approche IAD basée sur les modèles de vision-langage de grande envergure (LVLM) pour détecter les anomalies industrielles.
- Cet article de recherche sur l’IA présente une étude exhaustive de l’apprentissage profond pour la localisation visuelle et la cartographie.
- Exploitez la puissance des LLM sollicitation sans entraînement et avec peu d’exemples
- L’icône de l’horreur Stephen King n’a pas peur de l’IA
- Une introduction du Pythonista au noyau sémantique
- Régression CatBoost Expliquez-le moi en détail
- L’implémentation du momentum de Nesterov de PyTorch est-elle incorrecte ?