Utilisation de l’IA générative Analyse des implications en matière de cybersécurité des outils d’IA générative
Utilisation de l'IA générative en cybersécurité.
Il est juste de dire que l’IA générative a désormais attiré l’attention de tous les conseils d’administration et leaders d’entreprise du pays. Autrefois une technologie marginale difficile à maîtriser, les portes de l’IA générative sont maintenant grandes ouvertes grâce à des applications telles que ChatGPT ou DALL-E. Nous assistons maintenant à une adoption généralisée de l’IA générative dans tous les secteurs d’activité et toutes les tranches d’âge, alors que les employés cherchent des moyens d’exploiter la technologie à leur avantage.
Une récente enquête a révélé que 29% des répondants de la génération Z, 28% de la génération X et 27% des Millennials utilisent désormais des outils d’IA générative dans le cadre de leur travail quotidien. En 2022, l’adoption à grande échelle de l’IA générative était de 23%, et ce chiffre devrait doubler pour atteindre 46% d’ici 2025.
L’IA générative est une technologie émergente mais en constante évolution qui exploite des modèles entraînés pour générer du contenu original sous diverses formes, du texte écrit et des images, jusqu’aux vidéos, à la musique et même au code logiciel. Grâce à l’utilisation de grands modèles de langage et d’énormes ensembles de données, la technologie peut instantanément créer du contenu unique qui est presque indiscernable du travail humain, et dans de nombreux cas plus précis et captivant.
Cependant, bien que les entreprises utilisent de plus en plus l’IA générative pour soutenir leurs opérations quotidiennes et que les employés aient rapidement adopté la technologie, le rythme de l’adoption et le manque de réglementation ont soulevé d’importantes préoccupations en matière de cybersécurité et de conformité réglementaire.
- La décision audacieuse de Walmart Équiper 50 000 employés du siège social avec un assistant d’IA génératif
- Les principaux piliers du développement d’une application de chat
- Les 4 principales utilisations de l’IA que vous ne connaissez probablement pas
D’après une enquête menée auprès de la population générale, plus de 80% des personnes sont préoccupées par les risques de sécurité posés par ChatGPT et l’IA générative, et 52% des personnes interrogées souhaitent que le développement de l’IA générative soit suspendu pour permettre à la réglementation de rattraper son retard. Ce sentiment généralisé est également partagé par les entreprises elles-mêmes, 65% des responsables informatiques de haut niveau refusant de soutenir un accès sans friction aux outils d’IA générative en raison de préoccupations en matière de sécurité.
L’IA générative reste un inconnu inconnu
Les outils d’IA générative se nourrissent de données. Les modèles, tels que ceux utilisés par ChatGPT et DALL-E, sont entraînés sur des données externes ou disponibles gratuitement sur Internet, mais pour tirer le meilleur parti de ces outils, les utilisateurs doivent partager des données très spécifiques. Souvent, lorsqu’ils sollicitent des outils tels que ChatGPT, les utilisateurs partagent des informations commerciales sensibles afin d’obtenir des résultats précis et complets. Cela crée de nombreuses inconnues pour les entreprises. Le risque d’accès non autorisé ou de divulgation non intentionnelle d’informations sensibles est “intégré” lorsqu’il s’agit d’utiliser des outils d’IA générative disponibles gratuitement.
Ce risque en soi n’est pas nécessairement une mauvaise chose. Le problème est que ces risques n’ont pas encore été suffisamment explorés. Jusqu’à présent, il n’y a pas eu d’analyse réelle de l’impact commercial de l’utilisation d’outils d’IA générative largement disponibles, et les cadres juridiques et réglementaires mondiaux relatifs à l’utilisation de l’IA générative n’ont pas encore atteint une forme de maturité.
La réglementation est encore en cours d’élaboration
Les régulateurs évaluent déjà les outils d’IA générative en termes de confidentialité, de sécurité des données et d’intégrité des données qu’ils produisent. Cependant, comme c’est souvent le cas avec les technologies émergentes, l’appareil réglementaire pour soutenir et encadrer leur utilisation est en retard de plusieurs étapes. Alors que la technologie est utilisée par des entreprises et des employés de tous horizons, les cadres réglementaires sont encore en grande partie à l’état de projet.
Cela crée un risque clair et présent pour les entreprises qui, pour le moment, n’est pas pris aussi au sérieux qu’il le devrait. Les dirigeants s’intéressent naturellement à la façon dont ces plateformes introduiront des gains commerciaux matériels tels que des opportunités d’automatisation et de croissance, mais les responsables de la gestion des risques se demandent comment cette technologie sera réglementée, quelles pourraient être les implications juridiques à long terme et comment les données de l’entreprise pourraient être compromises ou exposées. Bon nombre de ces outils sont disponibles gratuitement pour tout utilisateur disposant d’un navigateur et d’une connexion Internet, de sorte que, en attendant que la réglementation rattrape son retard, les entreprises doivent commencer à réfléchir très attentivement à leurs propres “règles internes” concernant l’utilisation de l’IA générative.
Le rôle des CISO dans la gouvernance de l’IA générative
Étant donné que les cadres réglementaires font encore défaut, les directeurs de la sécurité des systèmes d’information (CISO) doivent assumer un rôle crucial dans la gestion de l’utilisation de l’IA générative au sein de leurs organisations. Ils doivent comprendre qui utilise la technologie et dans quel but, comment protéger les informations de l’entreprise lorsque les employés interagissent avec des outils d’IA générative, comment gérer les risques de sécurité de la technologie sous-jacente et comment équilibrer les compromis en matière de sécurité avec la valeur offerte par la technologie.
Ce n’est pas une tâche facile. Des évaluations détaillées des risques doivent être effectuées pour déterminer les résultats négatifs et positifs résultant de la première utilisation de la technologie à des fins officielles, ainsi que de la possibilité de permettre aux employés d’utiliser des outils disponibles gratuitement sans surveillance. Étant donné la facilité d’accès aux applications d’IA générative, les CISO devront réfléchir attentivement à la politique de l’entreprise concernant leur utilisation. Les employés doivent-ils être libres d’utiliser des outils tels que ChatGPT ou DALL-E pour faciliter leur travail ? Ou l’accès à ces outils devrait-il être restreint ou modéré de manière quelconque, avec des lignes directrices internes sur la façon dont ils devraient être utilisés ? Un problème évident est que même si des lignes directrices d’utilisation internes devaient être créées, étant donné la rapidité avec laquelle la technologie évolue, elles pourraient être obsolètes au moment de leur finalisation.
Une façon de résoudre ce problème pourrait être de déplacer l’attention loin des outils d’IA générative eux-mêmes, et plutôt se concentrer sur la classification et la protection des données. La classification des données a toujours été un aspect clé de la protection des données contre les violations ou les fuites, et cela est également vrai dans ce cas d’utilisation particulier. Cela implique d’attribuer un niveau de sensibilité aux données, ce qui détermine comment elles doivent être traitées. Faut-il les chiffrer? Faut-il les bloquer pour les contenir? Faut-il en notifier l’utilisateur? Qui devrait y avoir accès, et où est-il autorisé à être partagé? En se concentrant sur le flux des données, plutôt que sur l’outil lui-même, les CISO et les responsables de la sécurité auront beaucoup plus de chances d’atténuer certains des risques mentionnés.
Comme toutes les technologies émergentes, l’IA générative est à la fois une aubaine et un risque pour les entreprises. Bien qu’elle offre de nouvelles capacités passionnantes telles que l’automatisation et la conceptualisation créative, elle introduit également des défis complexes en matière de sécurité des données et de protection de la propriété intellectuelle. Alors que les cadres réglementaires et juridiques sont encore en cours d’élaboration, les entreprises doivent prendre sur elles-mêmes de trouver un équilibre entre opportunité et risque, en mettant en place leurs propres contrôles de politique qui reflètent leur posture générale en matière de sécurité. L’IA générative fera avancer les entreprises, mais nous devons être prudents et garder une main sur le volant.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Pourquoi choisir l’augmentation du personnel informatique?
- Débloquez la puissance des GenAI LLMs directement sur votre machine locale !
- Améliorez l’apprentissage avec les plugins ChatGPT pour les étudiants et les institutions
- 5 conseils d’ingénierie rapides pour Claude
- Rattraper les grands modèles de langage
- Ingénierie des données spatiales avec Typescript
- Comment extraire et étiqueter automatiquement les points de données sur un graphique KDE Seaborn