Comment les développeurs peuvent travailler avec l’IA génératrice en toute sécurité

Travailler avec l'IA génératrice en toute sécurité

Si vous travaillez dans le développement de logiciels, ou même dans n’importe quel secteur de l’industrie technologique, vous avez sans aucun doute participé à des discussions sur, lu des titres sur, ou même essayé une plateforme d’intelligence artificielle générative (IA). En simplifiant, cette nouvelle technologie en évolution rapide est partout.

Cependant, avec la promesse excitante d’une plus grande productivité grâce aux outils de génération de code IA – GitHub affirme que l’augmentation de la productivité des développeurs grâce à l’IA pourrait stimuler le PIB mondial de plus de 1,5 billion de dollars – il y a également un risque accru. Ces risques incluent des préoccupations concernant la qualité du code, car les modèles d’IA peuvent produire un code complexe difficile à comprendre et à expliquer.

Il y a aussi le risque de complexité autour de la propriété intellectuelle, car les discussions sur les droits de propriété intellectuelle, la propriété et le droit d’auteur du code généré par l’IA sont toujours en cours. À mesure que cette technologie évolue, les directives deviendront plus claires, mais cela prendra du temps. Actuellement, si vous travaillez avec du code généré par l’IA formé sur un logiciel open source, le non-respect des exigences de licence de ce logiciel peut constituer une violation du droit d’auteur.

Enfin, le code généré par l’IA peut contenir un certain nombre de vulnérabilités, bien involontairement. Par exemple, si l’IA a été formée sur un code non sécurisé, elle créera donc un code non sécurisé. En somme : si les données d’entrée sont mauvaises, les données de sortie le seront aussi.

Mettre la sécurité en premier

Alors, que peuvent faire les développeurs pour s’assurer qu’ils peuvent tirer le meilleur parti de l’IA générative sans compromettre la sécurité ?

  1. Considérer l’IA générative comme un partenaire de codage junior : Les développeurs devraient aborder le travail avec les outils de codage IA générative en s’attendant à un code de moins bonne qualité contenant des vulnérabilités.
  2. Rester vigilant avec les indications de l’IA : Révéler des informations confidentielles via une indication de l’IA représente un gros risque pour la confidentialité, et il existe actuellement une compréhension limitée de la manière dont les services traitent réellement les données de leurs clients.
  3. Intégrer davantage de révisions de code : Comme pour le codage traditionnel, les révisions de code sont un processus important dans le cycle de développement logiciel (SDLC). Il est crucial de revoir la sécurité et la qualité du code généré par l’IA, car il peut sembler cohérent en surface mais pas nécessairement correct et sécurisé après les tests.
  4. Adopter une formation continue : Étant donné que la révision et les tests du code généré par l’IA sont si cruciaux, il est extrêmement important que les développeurs de logiciels derrière les indications et la livraison du produit final, de l’application ou du service, aient une bonne compréhension du codage sécurisé. Ces professionnels ont besoin d’une formation pour reconnaître et traiter les vulnérabilités, et étant donné que le paysage des menaces évolue si rapidement, cette formation doit également être dispensée de manière continue pour habiliter au mieux tous les acteurs du SDLC.

Il est tout à fait possible de trouver un équilibre entre la productivité améliorée que peut offrir l’IA générative et les risques qu’elle peut représenter pour la sécurité et la qualité du code avec ces directives. Cependant, à la base de cet équilibre doit se trouver une formation continue et programmatique au codage sécurisé pour le développeur humain, de sorte que l’IA générative devienne un outil utile plutôt qu’une source de code non sécurisé.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Grok L'IA Chatbot de xAI d'Elon Musk

Plongez dans Grok d'Elon Musk par xAI, un chatbot IA avec une récupération d'informations en temps réel, de l'humour ...

AI

Le xAI d'Elon Musk affronte le ChatGPT d'OpenAI

Elon Musk, le milliardaire visionnaire derrière des entreprises telles que les voitures électriques, l’explorat...

AI

Elon Musk met en garde contre la montée de la superintelligence en Chine

L’entrepreneur renommé Elon Musk a récemment fait les gros titres avec sa déclaration audacieuse lors d’u...

AI

Elon Musk présente 'Grok' l'AI Chatbot impertinent avec une touche de rébellion

Le monde de la technologie est en effervescence. Elon Musk, le génie derrière des entreprises révolutionnaires comme ...

AI

Restez en avance sur la courbe de confiance en IA la trousse à outils responsable en IA en open-source est dévoilée.

Dans le paysage technologique en évolution rapide d’aujourd’hui, l’intelligence artificielle (IA) e...

AI

Juliette Powell et Art Kleiner, auteurs de la série d'interviews Le dilemme de l'IA

Le dilemme de l'IA est écrit par Juliette Powell et Art Kleiner. Juliette Powell est auteure, créatrice de télévision...