Mes thématiques de recherche sont reliées à la question de comment un agent (robotique ou informatique) peut apprendre à évoluer dans un environnement inconnu.
- Les théories sensori-motrices. Dans ce cadre, les régularités à apprendre de l'interaction de l'agent avec son environnement sont les conséquences sensorielles induites par les actions de l'agent. D'un point de vue théorique, cela change la structure des données à apprendre, mais cela pourrait également être la seule manière d'apprendre des connaissances et non seulement des représentations. En revanche cela empêche la création de bases de données (puisque les actions et donc le corps est nécessaire à l'apprentissage, en lien avec l'encorporation) et nécessite donc un apprentissage autonome.
- L'apprentissage autonome. Apprendre en interaction avec un environnement inconnu nécessite de nombreuses propriétés: apprentissage en ligne (un exemple à la fois sans remise), non supervisé (i.e. sans label), continu (apparition de nouvelles tâches, donc données non i.i.d), ... Ces propriétés sont peu étudiées en apprentissage machine, même si ces méthodes peuvent être utilisées et adaptées. L'apprentissage développemental, inspiré des neurosciences et des sciences cognitives, qui consiste en l'acquisition progressive et hiérarchique de capacités d'interaction avec l'environnement semble plus prometteur.
- La fusion de données. L'apprentissage de contingences sensori-motrices nécessite de mixer différents types d'informations (sensorielles et motrices). Mais plus globalement, les données sensorielles sont généralement multimodales puisque provenant de multiples capteurs ou mixant différents types d'informations/structures au sein d'un même capteur. Un tel apprentissage nécessite de savoir quelles informations fusionner, mais également quelle confiance accorder à chacune.
- La curiosité artificielle. Lors d'un apprentissage sensori-moteur autonome se pose la question de l'action à choisir et de son but. La curiosité artificielle offre un cadre intéressant en proposant que l'agent maximise une (méta)récompense interne basée sur la performance de son apprentissage. Ce formalisme peut aussi être couplé à des mécanismes de perception active visant à choisir une action permettant une réduction de l'incertitude sur la perception courante.