Entrepreneur dans la tech depuis 1997 et passé par Microsoft avant de fonder plusieurs entreprises internationales, David Gurlé dirige aujourd’hui Policloud, une initiative européenne positionnée sur une IA « responsable, frugale et souveraine ». Face à l’explosion des usages et aux tensions énergétiques et géopolitiques qu’elle génère, il défend un modèle d’infrastructure distribué, directement connecté aux sources d’énergie renouvelable.
SNC : On parle beaucoup de puissance de calcul et de modèles toujours plus performants. Vous alertez plutôt sur les limites économiques et énergétiques de l’IA à grande échelle. Pourquoi ?
David Gurlé : Il y a vraiment deux gros axes que nous observons. Un premier axe du côté infrastructure physique. La demande d’IA explose et avec ça les centres de données doivent répondre à cette demande. Les chiffres sont assez flagrants. On a aujourd’hui 800 millions d’utilisateurs qui utilisent l’IA par semaine. L’utilisation moyenne est passée de 6 minutes il y a un an à 14 minutes aujourd’hui.
On a plus que doublé le nombre d’utilisateurs et presque doublé le nombre de minutes d’usage. Et pourtant cela ne représente qu’environ 10 % de la population mondiale. Nous sommes à la fin du début. On va vraiment commencer à monter en échelle avec une très grosse demande anticipée. Cela pose un problème énergétique. Il faut trouver de la capacité énergétique et surtout la connecter au réseau électrique. On voit jusqu’à six ou sept ans de délai pour certains projets. D’ici 2030, on parle d’un déficit de 220 à 230 gigawatts.
Et le second axe ?
D. G. : Il est économique et géopolitique, sous l’angle de la souveraineté. On a enfin compris que la souveraineté est importante et que le seul choix n’est pas Microsoft ou Azure. On doit définir son propre destin. Il y a un enjeu d’indépendance et d’autonomie, mais aussi de protection des données. Ce n’est pas seulement un problème français, c’est mondial. On se décrit de plus en plus dans le monde numérique. On n’a pas envie que cette souveraineté soit défiée.
Comment les acteurs traditionnels répondent-ils aujourd’hui à cette demande ?
D. G. : Les traditionalistes font ce qu’ils ont toujours fait : construire de grands centres de données, trouver de l’énergie, connecter cette énergie au réseau. Cela coûte des milliards d’euros, avec des délais très longs et des problèmes d’acceptabilité environnementale. En 2024, plusieurs projets ont été arrêtés. Il y a des défis énergétiques et environnementaux très importants.
Quelle est votre alternative ?
D. G. : Il y a un paradoxe très saillant. On a une forte demande d’énergie, mais aussi beaucoup d’énergie non consommée un peu partout en Europe et dans le monde. Il existe des poches d’énergie renouvelable de 1 à 5, 10 ou 20 mégawatts. Parfois elles ne sont plus rentables à revendre au réseau, ou bien elles ne peuvent pas être connectées avant des années.
Pourquoi ne pas amener les datacenters là où l’électron est déjà produit ? Nous avons développé une unité physique flexible, modulaire et mobile basée sur des conteneurs maritimes, équipés de matériel informatique ultra puissant pour faire du HPC, notamment pour l’inférence IA. Ces unités consomment jusqu’à 500 kW maximum, n’utilisent pas d’eau, occupent 50 à 100 m² et peuvent être mises en service en quatre mois. Pas de permis de construire lourd, pas de transformateur à installer. Nous les interconnectons pour créer Policloud, un réseau mutualisé de producteurs. Cela permet d’avoir une capacité virtuelle beaucoup plus grande, tout en consommant moins.
En quoi cela répond-il à ce besoin de souveraineté ?
D. G. : Nous vendons Policloud, ce qui signifie que les clients deviennent propriétaires de leur unité. De facto, ils sont souverains sur ces infrastructures. C’est comme si ces équipements étaient dans leurs propres locaux. Nous proposons aussi un modèle économique où la capacité non utilisée peut être revendue sur le marché pour amortir l’investissement.
Nous entrons dans une phase d’inférence massive. Quelles conséquences concrètes ?
D. G. : À l’échelle planétaire, les coûts explosent. L’énergie n’est pas gratuite. L’équipement informatique coûte cher. Les éditeurs investissent énormément pour entraîner et faire tourner leurs modèles. Cela se reflète dans les prix. Aujourd’hui, un accès illimité à certains modèles coûte 200 euros par mois. C’est beaucoup pour une grande partie de la population mondiale. Ceux qui peuvent se permettre les meilleurs modèles auront accès aux plus performants. Les autres non. C’est comme à l’époque de l’ADSL et du modem. Cela pose un vrai problème sociétal et politique. L’accès à l’infrastructure IA devient un enjeu stratégique.
Avez-vous des exemples concrets d’explosion des coûts ?
D. G. : Les racks passent de 60 kW à 100 kW. Aucun datacenter existant n’est conçu pour cela sans transformation majeure. Un serveur H200 ou B200 coûte entre 300 000 et 400 000 euros. Les mémoires ont été multipliées par trois en quelques mois. Le coût de l’équipement a au moins doublé sur les douze derniers mois. Certains clients ne peuvent plus se permettre les derniers modèles. Ils utilisent des modèles inférieurs, plus lents, ce qui freine leurs investissements. Et les coûts cloud sont imprévisibles. Vous budgétez 60 000 euros par mois et vous pouvez vous retrouver à 80 000 ou 90 000 une fois lancé.
Quel indicateur surveiller ?
D. G. : Le prix par token, en fonction de la puissance et du volume utilisé. C’est l’indicateur le plus important.
Votre recommandation opérationnelle à une DSI en 2026 ?
D. G. : Qualifier la souveraineté et l’exécuter. Ce n’est pas instantané. Cela peut prendre un ou deux ans. Il faut planifier, discipliner l’exécution et ne pas abandonner le projet.








