Octo versus Voltron sur Maniskill2

Par Olivier Sigaud, 6 janvier, 2024

Les foundational models, d’énormes réseaux de neurones entraînés sur des bases de données gigantesques, promettent d’améliorer très significativement la capacité de l’IA à résoudre des problèmes très variés comme la compréhension du langage naturel ou la commande de robots pour accomplir des tâches indiquées verbalement. Un certain nombre de ces modèles déjà entraînés sont disponibles en open source et ne demandent qu’à être testés, comme Octo et Voltron.

Parallèlement, des environnements de simulation toujours plus complexes sont disponibles en open source et constituent d’excellents moyens pour tester les foundational models, comme par exemple RLBench ou, plus récemment, Maniskill2.

L’objectif de ce projet est de tester les modèles Octo et Voltron dans l’environnement Maniskill2 et de mener une étude comparative de leurs performances. Si ce travail est mené à bien rapidement, il pourra être poursuivi en ajoutant de nouvelles tâches dans Maniskill2 ou bien en essayant d’optimiser les modèles Octo ou Voltron.

Pour les étudiant.e.s qui seront choisi.e.s, ce sera l’occasion de se familiariser avec des concepts et outils de pointe de l’Intelligence Artificielle, et d’apprendre une méthodologie rigoureuse pour l’évaluation et la comparaison d’algorithmes.

Ce projet faisant appel à de nombreuses notions nouvelles, une formation à des aspects méthodologiques sera assurée durant les premières semaines.

Une forte motivation pour le machine learning, des bonnes bases en programmation python et en installation de librairie ainsi qu’une bonne maîtrise de github sont des prérequis.

Références

Maniskill2
https://maniskill2.github.io/

Voltron :
https://sites.google.com/view/voltron-robotics

Octo :
https://octo-models.github.io/

Encadrant
Olivier Sigaud
Nombre d'étudiants
4
Attribué
Non
Obsolète
Oui
Tags