La société de gestion de BTS, HYBE, se tourne vers l’intelligence artificielle pour sortir des morceaux dans plusieurs langues.
La société BTS utilise l'intelligence artificielle pour produire des morceaux multilingues.
La plus grande maison de disques de Corée du Sud, HYBE, rendue célèbre en interne grâce au groupe phare BTS, compte sur l’IA pour combler le fossé linguistique. Selon un rapport de Reuters, la maison de disques a utilisé l’IA pour aider à la sortie d’une chanson de MIDNATT, un artiste du label, dans six langues.
Ces langues comprennent le coréen, l’anglais, l’espagnol, le chinois, le japonais et le vietnamien. La chanson est sortie en mai et a marqué la première utilisation de cette technologie pour une sortie simultanée dans six langues. Selon HYBE, si cela s’avère être un succès, cela pourrait être utilisé pour d’autres groupes de K-pop populaires.
Lors d’une interview avec Reuters, Chung Wooyong, responsable de la division médias interactifs de HYBE, a déclaré : “Nous écoutons d’abord la réaction, la voix des fans, puis nous décidons de nos prochaines étapes”. Selon le rapport, MIDNATT a enregistré la chanson dans chacune des six langues. Cela a été fait en utilisant des locuteurs natifs en studio qui ont lu les paroles et l’artiste a enregistré.
- 3 Différences Pratiques Entre astype() et to_datetime() dans Pandas
- Des chercheurs de KAIST présentent FaceCLIPNeRF un pipeline de manipulation textuelle d’un visage en 3D utilisant NeRF déformable.
- Naviguer dans le dédale de l’adoption de l’IA
En expliquant le fonctionnement de l’IA, Chung Wooyong a déclaré : “Nous avons divisé un morceau de son en différentes composantes – la prononciation, le timbre, la hauteur et le volume,… Nous avons examiné la prononciation, qui est liée aux mouvements de la langue, et nous avons utilisé notre imagination pour voir quel genre de résultat nous pourrions obtenir avec notre technologie”.
Ensuite, lors d’une démonstration à Reuters, l’équipe a pu écouter une comparaison avant et après l’ajout d’un son de voyelle allongée à un mot. Le mot était “twisted” en anglais, et cela a été fait pour le rendre plus naturel tout en préservant la voix naturelle du chanteur.
Ensuite, en utilisant l’IA interne de HYBE, tout a été combiné. Comme certains l’ont remarqué ces derniers mois, il s’agit d’un autre exemple de la musique et de l’IA qui se rejoignent. Le fonctionnement de l’outil repose sur l’apprentissage approfondi, alimenté par le framework Neural Analysis and Synthesis (NANSY) développé par une société appelée Supertone, que HYBE a acquis en janvier.
Selon son directeur général adjoint, Choi Hee-doo, l’IA rend la chanson plus naturelle et constitue une amélioration par rapport aux logiciels non-IA utilisés dans le passé. Mais que pense l’artiste en question ? Eh bien, dans une déclaration à MIDNATT, il a déclaré que l’IA lui permettait d’avoir “un spectre plus large d’expressions artistiques”.
Il a ajouté : “Je pense que la barrière linguistique a été levée et il est beaucoup plus facile pour les fans du monde entier de vivre une expérience immersive avec ma musique,… Cela va réduire les barrières à la création musicale. C’est un peu comme Instagram pour les photos, mais dans le cas de la musique”.
En février dernier, le célèbre DJ David Guetta a déclaré qu’il pensait que l’IA deviendrait un élément essentiel de la musique à l’avenir. Lors d’une interview, il a déclaré en partie : “Je suis sûr que l’avenir de la musique réside dans l’IA. Sans aucun doute. Mais en tant qu’outil”. Et il n’a pas tort, du moins en ce qui concerne les fans. Il suffit de regarder les mash-ups sur YouTube pour entendre l’influence de l’IA dans la musique.
Sur les réseaux sociaux, ces mash-ups ont été partagés, aimés et alimentés pendant des mois. C’est en partie pourquoi les Grammy Awards ont récemment adopté de nouvelles règles pour faire face à l’IA dans la musique. Il semble donc que, comme de nombreux autres secteurs, la musique se tourne vers l’IA pour abattre les barrières.
Note de l’éditeur : L’apprentissage approfondi devient un sujet essentiel dans le développement futur de l’IA, et si vous voulez rester à la pointe des derniers développements, vous devez entendre les leaders de l’industrie qui mènent la charge. Vous obtiendrez cela lors de la conférence ODSC West 2023 Deep Learning & Machine Learning Track. Réservez votre place et inscrivez-vous dès aujourd’hui.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Introduction à la science des données Guide du débutant
- Découverte de produits alimentée par LLM un bond au-delà de la recherche hybride
- Du Chaos à l’Ordre Exploiter le regroupement de données pour une prise de décision améliorée
- A l’intérieur de SDXL 1.0 AI de stabilité, nouveau modèle super Texte-vers-Image
- Des chercheurs mettent en évidence les failles des contrôles de sécurité de ChatGPT et d’autres Chatbots
- Une nouvelle ère dans la robotique rotation d’objet basée sur le toucher
- Avancée de la reconnaissance des actions humaines en réalité virtuelle Cet article sur l’IA présente LKA-GCN avec une attention de noyau large sur le squelette pour des performances inégalées.