Accueil Expert Booster les activités de DevOps grâce aux modèles de langage de grande...

Booster les activités de DevOps grâce aux modèles de langage de grande taille (LLM)

AVIS D’EXPERT – Les discours actuels autour de l’intelligence artificielle dépeignent souvent un avenir où chaque citoyen deviendrait surhumain, maîtrisant sans effort n’importe quelle profession grâce à son aide. Cette croyance dépend toutefois de ce que chacun entend concrètement par « IA ». Markus Eisele, Developer Tools Strategy and Evangelism chez Red Hat, développe son idée DevOps pour les lecteurs de Solutions Numériques.

 

 

 

Par Markus Eisele, Developer Tools Strategy and Evangelism, Red Hat

 

Les outils tels que ChatGPT, DALL-E ou encore Descript ont souvent été qualifiés, à tort, de systèmes intelligents capables de faire preuve d’autoréflexivité. Il s’agit plutôt de modèles de langage de grande taille (Large Language Models ou « LLM » en anglais), c’est-à-dire de vastes ensembles de données dotés de capacités analytiques et algorithmiques. Sans être des baguettes magiques, les LLM sont des outils puissants capables d’enrichir et d’optimiser les capacités humaines, en particulier dans le domaine du développement de logiciels.

Les LLM offrent une opportunité unique d’optimiser les performances et la productivité

Prenons comme exemple WatsonX, la plateforme de données enterprise-ready, qui comporte des fonctionnalités avancées de LLM. Cette dernière peut analyser de grandes quantités de données pour en tirer des informations pertinentes pour prendre des décisions plus éclairées, mieux évaluer les risques existants et résoudre rapidement les problèmes. Elle peut également tirer des enseignements des incidents passés pour prédire et anticiper les problèmes futurs, permettant ainsi aux opérations DevOps de gagner en efficacité et en fiabilité. De leur côté, les développeurs peuvent également tirer des enseignements des incidents passés, des révisions de code et des journaux système, ce qui leur permet de perfectionner continuellement leurs compétences et d’obtenir de meilleurs résultats.

Par ailleurs, les outils LLM peuvent aider à traduire le jargon technique en langage clair pour les parties prenantes non techniques. Ils peuvent également hiérarchiser les communications – telles que les alertes et les notifications – en fonction de leur compréhension du langage et du contexte, et contribuer à la création, à la maintenance et à la recherche de documentation, pour un partage des connaissances plus efficace. Les LLM vont jouer un rôle clé dans l’amélioration de la collaboration et de la communication qui sont des piliers du DevOps.

Cependant, la prolifération rapide de ces outils peut être déconcertante. Après tout, choisir l’outil qui convient le mieux à ses besoins nécessite d’évaluer minutieusement ses mérites, ainsi que sa compatibilité avec les logiciels existants. Par ailleurs, les questions liées à la provenance des jeux de données d’apprentissage et à leur souveraineté doivent également être abordées. Ainsi, faire le bon choix devient de plus en plus difficile et nécessite l’expérience de développeurs chevronnés qui sont habitués à ce genre de situations.

Un nouveau pas en avant plutôt qu’une révolution complète

Au cours des dix dernières années, les développeurs ont vu des changements majeurs s’opérer dans leur milieu, notamment avec l’introduction de concepts tels que les conteneurs, les microservices, le déploiement en continu et l’infrastructure as code (IaC). Aujourd’hui, contrairement à l’image véhiculée par les médias, les développeurs ont conscience que avec la montée en puissance de l’IA et des LLM, il ne s’agit pas d’une révolution complète ou d’un changement radical. Il s’agit plutôt d’un nouveau pas en avant, d’une nouvelle avancée technologique, qu’il faut superviser et gérer avec minutie pour bien faire les choses.

L’IA, et plus particulièrement les LLM, sont des outils dont l’utilisation est optimisée entre les mains de personnes expérimentées dans les tâches qu’elles sont chargées d’accomplir. Les avantages potentiels sont énormes. Cela libérerait les équipes DevOps de leurs tâches redondantes afin qu’elles se concentrent sur des initiatives novatrices.

En conclusion, le véritable risque de l’IA n’est pas la crainte exagérée de voir les machines remplacer les humains. Il s’agit plutôt d’une mauvaise compréhension de ce que l’IA et les LLM peuvent et ne peuvent pas faire. En outre, le fait de croire que l’IA (ou un outil se présentant comme tel) pourrait remplacer un professionnel DevOps expérimenté est aussi insensé que de penser qu’un enfant pourrait gagner le prix Pulitzer grâce à ChatGPT. Le DevOps est une entreprise complexe qui nécessite de combiner l’IA avec l’intelligence et la sensibilité émotionnelle. Ainsi, la stratégie la plus efficace n’est pas le remplacement des humains mais la coexistence des humains et de l’IA, en tirant parti des forces amenées par chaque partie prenante pour obtenir des résultats optimaux.

 

Markus Eisele