Aider à la compréhension de l’informatique visuelle et des modèles de langage de ce qu’ils voient
Aider à comprendre l'informatique visuelle et les modèles de langage de ce qu'ils voient
.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_print { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_print:hover { background:url(‘/images/icons/print.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.mobile-apps { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #FFF; background-size: 10px; } .fav_bar a.mobile-apps:hover { background:url(‘/images/icons/generic.gif’) no-repeat 13px 7px #e6e9ea; background-size: 10px} .fav_bar a.fav_de { background: url(/images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(/images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘/images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘/images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

Des chercheurs du Massachusetts Institute of Technology ont fait partie d’une équipe qui a développé une technique utilisant des données générées par ordinateur pour aider les modèles de vision et de langage à mieux comprendre les concepts.
Les chercheurs ont utilisé un ensemble de données synthétiques annotées pour affiner les modèles populaires de vision et de langage, augmentant leur précision dans la compréhension des concepts jusqu’à 10%.
Ils ont produit près de 800 000 images photoréalistes en utilisant des vidéos synthétiques générées par ordinateur d’environnements et d’objets tridimensionnels divers, avec des avatars humains ajoutés pour interagir avec eux.
- Le capital-investissement recrute des talents en science des données alors que l’industrie s’attaque à l’apprentissage automatique
- Segmenter n’importe quoi segmentation configurable d’objets arbitraires
- Comment l’apprentissage automatique peut être utilisé pour réduire les factures d’énergie
Une légende détaillée a été ajoutée à chaque image, couvrant les attributs des objets, les relations de position et les interactions homme-objet.
Les données synthétiques ont permis aux chercheurs de créer des images plus diversifiées à moindre coût que la génération de données réelles, tout en préservant la confidentialité grâce à l’utilisation d’avatars. À partir de MIT News Voir l’article complet
Abstracts Copyright © 2023 SmithBucklin, Washington, D.C., États-Unis
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Poursuivez un master en science des données avec le 3ème meilleur programme en ligne
- Data Science vs Ingénieur Logiciel Quelle est la meilleure carrière?
- Série de Fibonacci en Python | Code, Algorithme et Plus
- Un pilier de RL – TD(λ) et 3 grands noms
- Aperçu des algorithmes de tri Tri fusion
- Aperçu des algorithmes de tri Tri par tas
- Vue d’ensemble des algorithmes de tri Quicksort