Des chercheurs de l’université Tufts ont mis au point une architecture d’IA qui réduit la consommation énergétique par un facteur 100 tout en améliorant la précision des systèmes robotiques — une avancée qui pourrait transformer l’industrie à une époque où l’empreinte carbone de l’IA fait débat.
L’approche dite « neuro-symbolique » combine des réseaux de neurones classiques avec un raisonnement symbolique inspiré du fonctionnement humain. Plutôt que de s’appuyer sur des millions d’essais-erreurs, le système décompose les problèmes en étapes logiques et applique des règles abstraites — comme la notion de forme ou de centre de gravité — pour planifier des actions de manière fiable. Résultat : un taux de succès de 95 % sur des tâches de manipulation structurées, là où les modèles vision-langage-action (VLA) standard nécessitent beaucoup plus de calcul.
Les chiffres sont éloquents : entraîner le modèle neuro-symbolique n’a pris que 34 minutes, contre plus d’une journée et demie pour un VLA équivalent. L’énergie consommée à l’entraînement représente 1 % de celle d’un VLA, et lors de l’exécution des tâches, seulement 5 %. Les travaux seront présentés en mai à la Conférence internationale de robotique et d’automatisation (ICRA) à Vienne.
Cette recherche arrive à point nommé : la consommation énergétique de l’IA est devenue un sujet brûlant, avec des centres de données qui absorbent une part croissante de la production électrique mondiale. Si cette architecture neuro-symbolique se généralisait au-delà de la robotique, elle pourrait ouvrir la voie à des modèles embarqués sobres, capables de fonctionner sur des appareils du quotidien sans les infrastructures de calcul colossales que nécessitent aujourd’hui les grands modèles de langage.




