“En moyenne, chaque organisation utilise 66 applications d’IA générative, dont 10 % sont classées à haut risque” constate le dernier rapport sur les risques de l’IA générative de Palo Alto Networks.
Les IA génératives peuvent traiter des données sensibles sans aucune protection, faute de politiques internes claires et de mesures de sécurité dédiées. Selon, les résultats reposant sur l’analyse de 7 000 entreprises, les secteurs de l’exploitation minière, de l’assurance les services juridiques, de la santé mais aussi de la défense… sont les plus exposés.
Le rapport souligne que les fuites et pertes de données liés via l’IA générative ont plus que doublé. En moyenne, les incidents de fuites de données via les IA génératives ont été multipliés par 2,5, représentant désormais 14 % de l’ensemble des incidents de sécurité des données. Quelle est la raison principale ? L’utilisation non encadrée d’outils d’IA générative, souvent introduits sans validation par les équipes de sécurité ou de conformité.
La très forte montée en puissance de l’IA qui progresse de 890% en terme de trafic s’accompagne de risques croissants pour la sécurité des données. Les systèmes à haut risque, tels que les IA utilisées pour le recrutement, l’évaluation des employés, ou encore les systèmes de recommandation ou scoring dans des secteurs de la finance, la santé, l’éducation sont particulièrement concernés par l’IA Act.
Les entreprises sont invitées à cartographier rapidement les IA susceptibles de comporter des risques et d’enclencher les chantiers nécessaires pour répondre aux obligations strictes en matière de transparence, de traçabilité, d’auditabilité, et de gestion des risques.