L’intelligence artificielle (IA) évolue pour fonctionner avec des modèles plus petits et spécifiques à une tâche. Cette transition coïncide avec l’amélioration du matériel informatique, où des composants spécialisés tels que les processeurs graphiques et tensoriels ont supplanté les unités centrales de traitement (CPU), autrefois omniprésentes. Lorsqu’ils se concentrent sur des tâches spécifiques, les modèles et composants spécialisés peuvent atteindre leurs objectifs rapidement et en consommant moins d’énergie.
Construire des modèles d’IA spécialisés
Les unités de traitement graphique (GPU) et les unités de traitement tensoriel (TPU) ont établi leur niche dans le paysage matériel en excellant dans des tâches spécifiques, et les modèles d’IA leur emboîtent désormais le pas. Reconnaît que toutes les tâches d’intelligence artificielle ne nécessitent pas le même niveau d’adaptabilité que les grands modèles de langage (LLM) tels que le GPT-4.
Les modèles d’IA spécialisés sont méticuleusement conçus pour des domaines ou des tâches spécifiques, de sorte que leur expertise précise donne des résultats exceptionnels. Cet abandon de la philosophie de la taille unique promet de rendre l’IA plus accessible et plus pragmatique pour un large éventail d’applications, allant du diagnostic médical au traitement du langage naturel et au-delà.
La physique derrière le changement
L’évolution vers des modèles d’IA spécialisés s’appuie sur les lois fondamentales de la physique. Les unités centrales de traitement, bien que polyvalentes et capables de gérer un large éventail de tâches, sont soumises à des contraintes inhérentes. Leur généralité entraîne une plus grande empreinte sur le silicium, une consommation d’énergie accrue et des temps de traitement plus longs.
Les modèles d’IA spécialisés sont comme des instruments finement réglés. Ils placent leurs ressources informatiques précisément là où elles sont nécessaires, ce qui permet d’effectuer davantage d’opérations par unité de temps et d’énergie. Cette spécialisation signifie que les tâches d’IA sont plus rapides et qu’elles réduisent considérablement la consommation d’énergie, une nouvelle considération résultant d’une plus grande sensibilisation à l’environnement.
Matériel informatique spécialisé
Les GPU et les TPU sont les illustrations les plus claires des accélérateurs matériels. Ces puces sont parfaitement conçues pour exécuter moins de tâches, mais avec une efficacité incomparable. En ce qui concerne le traitement parallèle, les GPU et les TPU sont les meilleurs pour les tâches qui impliquent une manipulation importante des données, telles que la reconnaissance d’images, la compréhension du langage naturel et l’apprentissage en profondeur.
Qu’en est-il des LLM ?
À l’avenir, plutôt que d’employer ces modèles colossaux pour toutes les tâches imaginables, la communauté de l’IA est de plus en plus encline à utiliser des modèles plus simples pour la plupart des applications. Se concentrer sur des tâches spécifiques présente plusieurs avantages.
Tout d’abord, ils sont plus efficaces sur le plan énergétique. L’élimination de la charge de calcul inutile associée aux grands modèles linguistiques signifie que les modèles spécialisés fonctionnent avec une empreinte carbone plus faible.
Deuxièmement, les modèles spécialisés sont plus rentables. Compte tenu de leur spécialisation dans des domaines particuliers, ils nécessitent moins de ressources informatiques, ce qui permet de réduire les coûts opérationnels.