Des chercheurs de l’EPFL ont développé un logiciel permettant d’exécuter des modèles d’IA localement, sans dépendre du cloud. Cette approche pourrait rebattre les cartes du modèle économique des géants du numérique.
Source du texte: EPFL, Tanya Petersen
Travail rédactionnel: Marc Schoeffel
L’usage de l’intelligence artificielle s’est fortement généralisé ces dernières années, y compris pour le traitement de données sensibles comme les dossiers médicaux ou les informations professionnelles confidentielles. Aujourd’hui, la quasi-totalité de ces traitements repose sur des infrastructures cloud centralisées, mobilisant d’immenses centres de données pour l’inférence et l’entraînement des modèles. Une dépendance technologique, énergétique et stratégique que certains chercheurs cherchent désormais à remettre en question.
Exécuter l’IA localement sans passer par le cloud
Une équipe du Laboratoire d’informatique distribuée de l’EPFL a mis au point un logiciel baptisé Anyway Systems, capable d’exécuter des modèles d’IA open source directement sur un réseau local de machines. Le principe : agréger et coordonner la puissance de calcul disponible localement afin d’éviter tout transfert de données vers des services cloud tiers.
Basé sur des techniques d’auto-stabilisation issues de l’informatique distribuée, le système optimise l’utilisation du matériel existant et garantit une exécution robuste, même en cas de défaillance partielle du réseau. L’installation peut être réalisée en moins d’une heure, sans sortie de données hors de l’infrastructure locale.
Moins d’infrastructure, plus de souveraineté
Contrairement aux idées reçues, de grands modèles de langage peuvent être exécutés sans recourir à des centres de données spécialisés. Selon les chercheurs, quelques machines équipées de GPU standards suffisent pour déployer localement des modèles comptant des centaines de milliards de paramètres, avec une légère augmentation de la latence mais sans perte significative de précision.
Cette approche apporte des réponses concrètes aux enjeux de confidentialité, de souveraineté des données et de durabilité. L’inférence dans le cloud représente aujourd’hui la majeure partie de la consommation énergétique liée à l’IA, contribuant à la multiplication de centres de données très énergivores. En ramenant ces traitements au plus près des utilisateurs, l’impact environnemental peut être réduit de manière significative.
Une alternative aux solutions d’IA embarquées
À la différence de solutions comme Google AI Edge, limitées à des modèles de petite taille exécutés individuellement sur des appareils mobiles, Anyway Systems permet un calcul distribué entre plusieurs machines standards. Là où d’autres solutions locales reposent sur une seule machine puissante – et donc coûteuse – le système coordonne automatiquement un ensemble de ressources hétérogènes, sans complexité de gestion pour l’utilisateur.
Du laboratoire au terrain
La start-up Anyway Systems a récemment été sélectionnée dans le cadre du programme suisse Startup Launchpad AI Track. Le logiciel est actuellement testé au sein d’entreprises et d’institutions publiques en Suisse, dont l’EPFL elle-même, afin d’évaluer les compromis entre performances, latence et qualité des résultats.
À terme, les chercheurs envisagent une démocratisation progressive de cette approche. Comme l’histoire de l’informatique l’a montré à plusieurs reprises, l’optimisation matérielle et logicielle pourrait rendre possible, à moyen terme, l’exécution de modèles d’IA puissants directement sur des infrastructures locales, voire personnelles.
Ces articles pourraient également vous intéresser
Mentions légales
Source du texte: EPFL
Source de l'image: EPFL
Informations
Autres articles
Veröffentlicht am:

