Accueil Etudes Le code source représente la catégorie de données sensibles la plus couramment...

Le code source représente la catégorie de données sensibles la plus couramment partagée sur ChatGPT

Les codes source publiés dans ChatGPT le sont plus que tout autre type de données sensibles, selon Netskope Threat Labs, qui a mené une étude sur le sujet.

Cette information figure parmi les conclusions du rapport Cloud & Threat Report: AI Apps in the Enterprise, première analyse complète du Threat Labs de Netskope consacrée à l’utilisation de l’intelligence artificielle en entreprise et aux risques pour la sécurité.

Au cours de son étude, Netskope a constaté que les codes source sont publiés dans ChatGPT plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. Parmi les autres données confidentielles partagées sur ChatGPT figurent des données réglementées, notamment financières, ou médicales, et des informations personnellement identifiables (IPI). C’est aussi le cas de blocs de propriété intellectuelle, à l’exclusion du code source et, ce qui est encore plus préoccupant, des mots de passe et des clés généralement intégrés dans le code source.

« Il est inévitable que certains utilisateurs téléversent du code source propriétaire ou du texte contenant des données sensibles vers des outils d’IA qui promettent de les aider à programmer ou à rédiger des contenus, concède Ray Canzanese, Threat Research Director, Netskope Threat Labs. Il est par conséquent impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques. Les contrôles les plus efficaces combinent la prévention des pertes de données (DLP) et un encadrement interactif des utilisateurs. »

Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé, près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.