L’IA neuro-symbolique divise par 100 la consommation d’énergie

Stéphane Larue
Publié par
Stéphane Larue
Publié parStéphane Larue
Stéphane Larue est journaliste et éditeur indépendant spécialisé dans l actualité des médias, du divertissement et de la culture numérique. Fondateur du site stephanelarue.com, il assure...
2 Min de lecture
2 Min de lecture

Des chercheurs de l’université Tufts ont mis au point une architecture d’IA qui réduit la consommation énergétique par un facteur 100 tout en améliorant la précision des systèmes robotiques — une avancée qui pourrait transformer l’industrie à une époque où l’empreinte carbone de l’IA fait débat.

L’approche dite « neuro-symbolique » combine des réseaux de neurones classiques avec un raisonnement symbolique inspiré du fonctionnement humain. Plutôt que de s’appuyer sur des millions d’essais-erreurs, le système décompose les problèmes en étapes logiques et applique des règles abstraites — comme la notion de forme ou de centre de gravité — pour planifier des actions de manière fiable. Résultat : un taux de succès de 95 % sur des tâches de manipulation structurées, là où les modèles vision-langage-action (VLA) standard nécessitent beaucoup plus de calcul.

Les chiffres sont éloquents : entraîner le modèle neuro-symbolique n’a pris que 34 minutes, contre plus d’une journée et demie pour un VLA équivalent. L’énergie consommée à l’entraînement représente 1 % de celle d’un VLA, et lors de l’exécution des tâches, seulement 5 %. Les travaux seront présentés en mai à la Conférence internationale de robotique et d’automatisation (ICRA) à Vienne.

Cette recherche arrive à point nommé : la consommation énergétique de l’IA est devenue un sujet brûlant, avec des centres de données qui absorbent une part croissante de la production électrique mondiale. Si cette architecture neuro-symbolique se généralisait au-delà de la robotique, elle pourrait ouvrir la voie à des modèles embarqués sobres, capables de fonctionner sur des appareils du quotidien sans les infrastructures de calcul colossales que nécessitent aujourd’hui les grands modèles de langage.

Partagez cet article
Publié parStéphane Larue
Follow:
Stéphane Larue est journaliste et éditeur indépendant spécialisé dans l actualité des médias, du divertissement et de la culture numérique. Fondateur du site stephanelarue.com, il assure une veille quotidienne sur les sujets d information générale, en s appuyant sur les sources officielles et les communiqués de presse. Il publie également des analyses, des interviews et des sélections éditoriales à destination d un large public.