L’avenir du travail Se former ou être laissé pour compte
L'avenir du travail Se former ou être exclu

L’avènement de l’intelligence artificielle transforme fondamentalement le monde du travail. Selon le rapport sur les emplois du Forum économique mondial pour 2023, les cinq prochaines années verront 83 millions d’emplois supprimés en raison des changements technologiques et économiques. Dans le même temps, 69 millions de nouveaux emplois pourraient émerger à mesure que les entreprises adoptent de nouvelles technologies et que les marchés se développent. Cela constitue une rotation structurelle de 152 millions d’emplois, soit 23% des 673 millions d’employés représentés dans l’ensemble de données. Le résultat net est une perte potentielle de 14 millions d’emplois, soit 2% de la main-d’œuvre étudiée.
Ces statistiques mettent en évidence la double nature de l’impact de l’IA. D’une part, la technologie peut automatiser les tâches routinières et répétitives, libérant ainsi les travailleurs humains pour se concentrer sur un travail plus significatif et créatif. Selon une analyse de PwC, l’IA et la robotique pourraient contribuer jusqu’à 15 billions de dollars au PIB mondial d’ici 2030. D’autre part, certains emplois seront inévitablement perdus en raison de l’automatisation dans des secteurs tels que la fabrication, le service client, le transport routier et le travail administratif. Nous ne pouvons pas ignorer cet inconvénient même si nous cherchons à maximiser les avantages.
À mesure que les capacités de l’IA progressent rapidement, nous rédigeons le prochain chapitre de l’avenir du travail. Mais ce n’est pas une histoire que la technologie dictera seule. Les décisions prises aujourd’hui par les gouvernements, les employeurs, les éducateurs et les travailleurs détermineront si l’IA sert à augmenter le potentiel humain ou à exacerber les inégalités sociales. La préparation proactive et la mise en œuvre éthique sont essentielles pour façonner un monde alimenté par l’IA où la technologie améliore la vie et les moyens de subsistance.
Requalification et perfectionnement
- Créer des produits LLM est difficile – voici les 6 principaux défis
- Construction d’un système de recommandation pour les données de rétroaction implicite
- Prédire la rétrosynthèse en une seule étape en incorporant les connaissances des chimistes avec les modèles d’IA
Le rythme du changement technologique signifie qu’une majorité de la main-d’œuvre mondiale aura besoin d’une formation supplémentaire dans les années à venir. Selon les perspectives d’emploi susmentionnées du WEF, 60% des travailleurs auront besoin d’une formation professionnelle d’ici 2027, mais seulement la moitié dispose actuellement d’opportunités adéquates de perfectionnement grâce à leurs employeurs. En termes de compétences prioritaires pour l’avenir, la pensée analytique devrait être la principale préoccupation des programmes de formation au cours des cinq prochaines années, représentant 10% de toutes les initiatives de requalification en moyenne. La deuxième priorité est le développement de la pensée créative, qui représentera 8% des efforts de perfectionnement. La formation en IA et en compétences en big data arrive en troisième position, avec 42% des entreprises prévoyant de s’y concentrer.
D’autres compétences clés que les employeurs cherchent à développer comprennent le leadership et l’influence sociale, la résilience et l’agilité, ainsi que la curiosité et l’apprentissage tout au long de la vie. Les deux tiers des entreprises prévoient un retour sur leurs investissements dans la formation des compétences dans l’année sous la forme de gains tels qu’une meilleure mobilité, satisfaction et productivité des travailleurs.
Il est à noter que certaines compétences sont beaucoup plus prioritaires dans les stratégies d’entreprise par rapport à leur importance actuelle perçue. L’IA et le big data en particulier sont classés beaucoup plus haut dans les programmes de formation prévus par rapport à leur rôle évalué dans les effectifs actuels. Cela indique que les entreprises le considèrent comme une compétence future stratégiquement vitale. Des écarts similaires existent pour le leadership et l’influence sociale, la conception, la gestion de l’environnement, le marketing et les réseaux / la cybersécurité.
Il ne s’agit pas seulement de se préparer aux emplois qui seront créés; il s’agit également de s’adapter aux emplois qui seront transformés. Les entreprises commencent à reconnaître que le coût de l’embauche de nouveaux talents formés en externe peut être prohibitif et qu’il y a une valeur intrinsèque à conserver des employés déjà alignés culturellement avec l’organisation. Un autre facteur critique est l’alignement des programmes de requalification avec les objectifs stratégiques plus larges de l’entreprise. Au lieu de modules de formation génériques, les compétences enseignées doivent être directement applicables aux besoins de l’entreprise et préparer les employés à des rôles futurs au sein de l’organisation.
Les employeurs qui perfectionnent activement leurs travailleurs pourraient obtenir un avantage concurrentiel tout en démontrant un engagement envers les employés au milieu de la perturbation. Cependant, l’exécution peut être difficile, car les employés peuvent être sceptiques quant à l’utilité de nouveaux programmes de formation, en particulier s’ils sont déjà établis dans leurs rôles actuels. Les cadres intermédiaires peuvent considérer ces initiatives comme perturbatrices pour le flux de travail ou même comme une menace pour leur propre sécurité d’emploi. Une communication solide, des incitations telles que des augmentations de salaire après une requalification et la présentation de perspectives de carrière claires sont importants pour surmonter les obstacles.
Risques et défis éthiques de l’adoption de l’IA
Alors que le potentiel de l’IA est énorme, l’intégrer de manière responsable dans les pratiques commerciales nécessite de naviguer entre certains risques importants et des dilemmes éthiques. À mesure que les systèmes d’IA prennent des décisions plus importantes, nous devons accorder la priorité à la transparence, à la responsabilité et à la supervision humaine.
Une préoccupation majeure est le potentiel de mauvais usage de l’IA, qu’il soit délibérément malveillant ou involontaire. Un groupe de chercheurs du MIT préconise la création d’une Observatoire mondial de l’IA (GAIO) – un organisme de coordination chargé de collecter des données, d’identifier les risques et les opportunités, et de fournir des orientations sur la politique de l’IA. Actuellement, différentes entités recueillent des informations précieuses mais fragmentées sur l’IA – les pays suivent les développements nationaux, les entreprises collectent des mesures sectorielles, et des organisations telles que l’OCDE analysent les politiques nationales. Un GAIO consoliderait ces efforts dans un cadre institutionnel pour une plus grande transparence, une conformité légale et une responsabilité sociale.
Un autre risque réside dans l’opacité de nombreux systèmes d’IA, ce qui rend difficile de comprendre comment ils parviennent à prendre des décisions. Un manque de transparence empêche une évaluation appropriée et réduit la confiance. Un rapport de 2022 de l’Institut national des normes et de la technologie a révélé que les modèles d’IA prennent souvent des décisions imprévisibles qui contredisent les données d’entraînement lorsqu’ils sont testés de manière plus rigoureuse. Bien que tous les systèmes ne puissent pas être entièrement interprétables, un certain niveau d’explicabilité devrait être imposé à l’IA utilisée dans des contextes sensibles tels que la santé, la finance et la justice pénale.
Enfin, les données utilisées pour développer l’IA doivent être vérifiées en termes de qualité et de biais potentiels. Des études ont révélé des problèmes tels que des algorithmes de reconnaissance d’image moins précis pour les femmes et les personnes de couleur, ou des stéréotypes de genre dans le traitement du langage naturel. Comme l’apprentissage automatique dépend fortement des données, des biais injustes peuvent être propagés si les données elles-mêmes reflètent des préjugés sociaux. La diversité et l’inclusion au sein des équipes d’IA permettent également de construire des systèmes plus éthiques et empathiques. L’intégration de l’éthique dans les valeurs organisationnelles est essentielle.
Comment naviguer dans l’avenir du travail ?
Réaliser les avantages de l’IA tout en atténuant les risques nécessite une approche coordonnée avec des responsabilités claires pour les parties prenantes clés. Les individus devraient se concentrer sur le développement continu de compétences adaptées à l’avenir, telles que l’adaptabilité, la littératie technologique et la pensée créative. Des études montrent que ces compétences centrées sur l’humain deviendront plus précieuses à mesure que l’automatisation augmentera. L’ouverture à la reconversion et à l’acquisition de nouvelles compétences tout au long de sa carrière est essentielle à l’ère de l’IA.
Les employeurs doivent offrir de nombreuses opportunités de perfectionnement grâce à des ressources de formation internes et externes. Ils devraient également auditer les systèmes d’IA pour évaluer leur éthique et détecter les biais involontaires avant le déploiement. Par exemple, Accenture recommande aux entreprises de mettre en place des cadres d’IA responsables et de mesurer les progrès grâce à des benchmarks. Les processus de travail peuvent nécessiter une refonte pour intégrer efficacement les capacités humaines et celles de l’IA.
Les gouvernements ont la responsabilité la plus large. Le financement de programmes de reconversion à grande échelle, la fourniture d’une infrastructure numérique et l’élaboration de normes et de réglementations en matière d’éthique de l’IA sont des interventions cruciales en matière de politique publique. La Commission européenne prévoit d’investir annuellement 1 milliard d’euros dans le développement de compétences avancées. Les structures fiscales et les incitations doivent également être continuellement ajustées pour équilibrer les gains de productivité avec le maintien de l’emploi.
Les établissements d’enseignement doivent également revoir leurs programmes d’études pour développer des talents prêts pour l’IA. Les écoles devraient enseigner la pensée computationnelle et le raisonnement éthique dès le plus jeune âge afin de préparer les générations futures. L’adoption responsable de l’IA nécessite une action collective de toutes les parties prenantes.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Principes de gestion des données pour la science des données
- QCNet Révolutionner la sécurité des véhicules autonomes avec une prédiction avancée de trajectoire
- Des chercheurs de Cornell et de Tel Aviv présentent les Doppelgangers Apprendre à dissocier les images de structures similaires.
- Détecteurs de contenu GPT et AI les plus performants
- Google AI présente un nouveau cadre de simulation TensorFlow qui permet le calcul des écoulements de fluides avec les TPUs
- Cette recherche en IA propose DISC-MedLLM une solution complète qui exploite les grands modèles de langage (LLMs) pour fournir des réponses médicales précises.
- Comment les robots peuvent-ils prendre de meilleures décisions ? Les chercheurs du MIT et de Stanford présentent Diffusion-CCSP pour un raisonnement et une planification avancés des robots.