Alors que l’AI Act européen entre progressivement en application, l’intelligence artificielle entre dans une nouvelle phase pour les organisations : celle de l’industrialisation. Pour Killian Vermersch, CEO de Miralia, cette transition impose une évaluation beaucoup plus rigoureuse des technologies déployées. L’ancien CTO identifie dix questions structurantes à poser aux fournisseurs afin de garantir un déploiement durable, conforme et maîtrisé.
L’industrialisation de l’IA impose de nouvelles exigences
L’intelligence artificielle ne se limite plus aux phases d’expérimentation. Son déploiement à grande échelle confronte désormais les organisations à un double impératif : continuer à innover tout en respectant un cadre réglementaire de plus en plus structuré. L’entrée en vigueur progressive de l’AI Act européen accentue cette exigence.
Pour Killian Vermersch, CEO de Miralia, cette nouvelle étape impose de revoir la manière dont les technologies d’IA sont évaluées. L’ancien directeur technique estime que le choix d’une solution ne peut plus reposer uniquement sur ses performances apparentes. La capacité à expliquer les décisions prises par un système devient un critère central. Une intelligence artificielle doit pouvoir justifier ses résultats, exposer son raisonnement et permettre un audit du traitement effectué. Cette traçabilité constitue, selon lui, la base de la confiance et de la conformité réglementaire.
Dans ce contexte, les organisations doivent également s’assurer que leurs données restent sous contrôle. La question de la souveraineté devient structurante, notamment pour les secteurs manipulant des informations sensibles. Savoir où résident les données et éviter qu’elles ne transitent par des infrastructures soumises à des législations extraterritoriales, comme le Cloud Act américain, s’impose désormais comme un prérequis.
AI Act : anticiper la conformité dès la conception
La montée en puissance du cadre réglementaire européen transforme la manière d’aborder les projets d’intelligence artificielle. Selon Killian Vermersch, les prestataires doivent être en mesure de démontrer que leurs solutions intègrent dès l’origine les exigences de transparence, de gouvernance et de maîtrise des risques prévues par l’AI Act.
La première étape consiste à déterminer le niveau de risque associé à l’usage de l’IA, notamment au regard de l’article 6 du règlement. Dans certains domaines, comme la banque ou l’assurance, les systèmes sont fréquemment classés comme “high risk”. Dans ce cas, la technologie doit être capable d’expliquer de bout en bout ses décisions ou les recommandations qu’elle produit. Même lorsque le niveau de risque est inférieur, certaines obligations continuent de s’appliquer, notamment en matière de protection des données.
Au-delà de la conformité réglementaire, la fiabilité des systèmes reste un enjeu opérationnel majeur. Pour le traitement de messages critiques, le déterminisme et la démontrabilité doivent primer sur la créativité algorithmique. L’objectif est de limiter les erreurs aléatoires et de garantir un comportement cohérent dans des environnements sensibles.
Frugalité, adoption et maîtrise technologique
L’évaluation d’une solution d’IA ne se limite pas à ses capacités techniques. Son impact environnemental, sa facilité d’adoption et sa capacité à générer un retour sur investissement mesurable deviennent également des critères déterminants.
Une intelligence artificielle performante doit ainsi rester frugale. Réduire la consommation de ressources informatiques et énergétiques permet à la fois de limiter l’empreinte environnementale et d’améliorer la rentabilité des projets. Killian Vermersch met en avant les approches hybrides comme l’IA neuro-symbolique, qui combinent des systèmes fondés sur des règles avec des modèles génératifs plus lourds. Dans ce modèle, chaque technologie intervient au moment opportun : les tâches connues peuvent être traitées par des systèmes symboliques ou des règles simples, tandis que l’IA générative prend le relais lorsque le contexte devient plus complexe.
Le succès d’un projet dépend également de l’adhésion des équipes. La solution doit être conçue pour être comprise et utilisée par les métiers, en agissant comme un soutien plutôt que comme un outil de remplacement. La co-construction avec les équipes internes et l’accompagnement par des experts constituent alors des facteurs clés.
Enfin, la capacité à mesurer concrètement les gains opérationnels et à conserver la maîtrise de la configuration de l’outil reste déterminante. Les organisations doivent pouvoir ajuster les décisions prises par l’IA et garder la main sur son paramétrage. Dans cette perspective, le choix d’un prestataire disposant de sa propre technologie, propriétaire ou open source, constitue, selon Killian Vermersch, un gage d’indépendance stratégique et de pérennité.








