Présenté à Las Vegas lors de NetApp Insight, le nouvel AIPod Mini marque la volonté de NetApp et Intel de ramener l’intelligence artificielle au cœur des entreprises, avec une machine compacte, souveraine et immédiatement opérationnelle.
Alors que l’IA générative est encore majoritairement consommée en passant par le cloud, NetApp et Intel proposent une alternative locale : un mini-cluster prêt à l’emploi capable d’exécuter des modèles directement sur site, sans transfert de données sensibles vers l’extérieur.
L’AIPod Mini réunit deux serveurs équipés de processeurs Xeon 6, une baie de stockage NetApp AFF A20 et un réseau interne à 100 Gbit/s. Ce format réduit, avec à peine un quart de baie, vise les entreprises souhaitant exploiter leurs propres données pour des usages d’inférence IA ou de RAG (Retrieval-Augmented Generation), tout en gardant le contrôle sur la sécurité et la confidentialité.
L’intérêt du projet réside aussi dans son ouverture logicielle : l’AIPod Mini s’appuie sur la pile OPEA (Open Platform for Enterprise AI), développée par Intel, qui permet d’exécuter une large gamme de modèles open source sans dépendre d’un fournisseur unique. Une approche pragmatique, modulaire et souveraine, qui pourrait séduire les entreprises cherchant à tester ou déployer des IA internes sans infrastructure démesurée.