L’IA apprend à travers les yeux et les oreilles d’un enfant.
Des chercheurs de l’Université de New York (NYU) ont utilisé une caméra montée sur la tête d’un enfant pour enregistrer son processus d’apprentissage du langage et ont entraîné un système d’IA multimodal avec ces données, imitant l’apprentissage linguistique d’un enfant de six mois à deux ans.
- Contrairement aux systèmes IA comme GPT-4, qui nécessitent des trillions de mots pour l’apprentissage, cette étude s’est concentrée sur l’entrée limitée qu’un enfant reçoit, totalisant seulement environ 1% de ses heures de veille.
- Les résultats, publiés dans Science, ont montré que le modèle pouvait apprendre un nombre substantiel de mots et concepts à partir de ces données limitées, démontrant que « un réseau neuronal peut apprendre à lier des mots à leurs visuels correspondants » d’après Wai Keen Vong de NYU.
- Brenden Lake de NYU souligne que l’étude offre de nouvelles perspectives sur les débats entourant l’apprentissage linguistique chez les enfants, en montrant l’efficacité des mécanismes d’apprentissage génériques.
- Plus de 60 heures de vidéo ont été analysées, capturant une large gamme d’activités et environ un quart de million d’instances de mots.
- Le modèle a été testé sur sa capacité à associer des mots à des images, reflétant une capacité de généralisation similaire à celle des enfants.
- L’étude a été soutenue par la DARPA et la Fondation Nationale pour la Science, marquant une avancée significative dans la compréhension de l’apprentissage du langage chez les enfants grâce à l’IA.
Cette synthèse met en évidence l’approche innovante de l’étude et ses implications pour la compréhension de l’apprentissage linguistique chez les enfants, tout en soulignant l’efficacité des méthodes d’apprentissage automatique dans la modélisation de processus d’apprentissage humain complexe.