Comment les développeurs peuvent travailler avec l’IA génératrice en toute sécurité

Travailler avec l'IA génératrice en toute sécurité

Si vous travaillez dans le développement de logiciels, ou même dans n’importe quel secteur de l’industrie technologique, vous avez sans aucun doute participé à des discussions sur, lu des titres sur, ou même essayé une plateforme d’intelligence artificielle générative (IA). En simplifiant, cette nouvelle technologie en évolution rapide est partout.

Cependant, avec la promesse excitante d’une plus grande productivité grâce aux outils de génération de code IA – GitHub affirme que l’augmentation de la productivité des développeurs grâce à l’IA pourrait stimuler le PIB mondial de plus de 1,5 billion de dollars – il y a également un risque accru. Ces risques incluent des préoccupations concernant la qualité du code, car les modèles d’IA peuvent produire un code complexe difficile à comprendre et à expliquer.

Il y a aussi le risque de complexité autour de la propriété intellectuelle, car les discussions sur les droits de propriété intellectuelle, la propriété et le droit d’auteur du code généré par l’IA sont toujours en cours. À mesure que cette technologie évolue, les directives deviendront plus claires, mais cela prendra du temps. Actuellement, si vous travaillez avec du code généré par l’IA formé sur un logiciel open source, le non-respect des exigences de licence de ce logiciel peut constituer une violation du droit d’auteur.

Enfin, le code généré par l’IA peut contenir un certain nombre de vulnérabilités, bien involontairement. Par exemple, si l’IA a été formée sur un code non sécurisé, elle créera donc un code non sécurisé. En somme : si les données d’entrée sont mauvaises, les données de sortie le seront aussi.

Mettre la sécurité en premier

Alors, que peuvent faire les développeurs pour s’assurer qu’ils peuvent tirer le meilleur parti de l’IA générative sans compromettre la sécurité ?

  1. Considérer l’IA générative comme un partenaire de codage junior : Les développeurs devraient aborder le travail avec les outils de codage IA générative en s’attendant à un code de moins bonne qualité contenant des vulnérabilités.
  2. Rester vigilant avec les indications de l’IA : Révéler des informations confidentielles via une indication de l’IA représente un gros risque pour la confidentialité, et il existe actuellement une compréhension limitée de la manière dont les services traitent réellement les données de leurs clients.
  3. Intégrer davantage de révisions de code : Comme pour le codage traditionnel, les révisions de code sont un processus important dans le cycle de développement logiciel (SDLC). Il est crucial de revoir la sécurité et la qualité du code généré par l’IA, car il peut sembler cohérent en surface mais pas nécessairement correct et sécurisé après les tests.
  4. Adopter une formation continue : Étant donné que la révision et les tests du code généré par l’IA sont si cruciaux, il est extrêmement important que les développeurs de logiciels derrière les indications et la livraison du produit final, de l’application ou du service, aient une bonne compréhension du codage sécurisé. Ces professionnels ont besoin d’une formation pour reconnaître et traiter les vulnérabilités, et étant donné que le paysage des menaces évolue si rapidement, cette formation doit également être dispensée de manière continue pour habiliter au mieux tous les acteurs du SDLC.

Il est tout à fait possible de trouver un équilibre entre la productivité améliorée que peut offrir l’IA générative et les risques qu’elle peut représenter pour la sécurité et la qualité du code avec ces directives. Cependant, à la base de cet équilibre doit se trouver une formation continue et programmatique au codage sécurisé pour le développeur humain, de sorte que l’IA générative devienne un outil utile plutôt qu’une source de code non sécurisé.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

Accélérer le développement de l'IA/ML au BMW Group avec Amazon SageMaker Studio

Cet article est coécrit avec Marc Neumann, Amor Steinberg et Marinus Krommenhoek du groupe BMW. Le groupe BMW - dont ...

AI

Découvrez SeamlessM4T le nouveau modèle de base de Meta AI pour la traduction de la parole.

La parole devient rapidement l'une des prochaines frontières des modèles fondamentaux. Alors que les domaines tels qu...

AI

Cet article d'IA du MIT explore la mise à l'échelle des modèles d'apprentissage profond pour la recherche en chimie

Des chercheurs du MIT ont étudié le comportement d’échelle des grands modèles de langage chimique, en se concen...

AI

Quand la vision par ordinateur fonctionne davantage comme un cerveau, elle voit davantage comme le font les personnes.

Entraîner des réseaux neuronaux artificiels avec des données provenant de cerveaux réels peut rendre la vision par or...

AI

L'imagerie médicale AI simplifiée NVIDIA propose MONAI en tant que service cloud hébergé

NVIDIA a lancé aujourd’hui un service cloud pour l’IA d’imagerie médicale afin de simplifier et d&#...

Actualités sur l'IA

Essai de la flotte de transport nucléaire avec des Voiles Alimentées par l'IA.

La flotte du Royaume-Uni chargée du transport de combustible nucléaire usé vise à équiper les navires de voiles pilot...