Meta IA
Meta IA
La société Meta (Facebook, Instagram, WhatsApp), a présenté un modèle d’IA capable de décoder la parole à partir de l’activité cérébrale. Celui-ci décode des segments de discours non invasifs à partir de 3 secondes d’activité et avec une précision de 73% à partir d’un vocabulaire de 793 mots. Ce nouveau modèle d’IA de la société permet d’aider les personnes souffrant de problèmes médicaux. Pour ce faire, les chercheurs utilisent wave2vec 2.0, un modèle d’apprentissage open-source qui permet d’identifier les représentations complexes de la parole dans le cerveau de volontaires écoutant des livres audio. « Nous nous sommes concentrés sur deux technologies non invasives : l’électroencéphalographie et la magnéto encéphalographie (EEG et MEG, en abrégé), qui mesurent les fluctuations des champs électriques et magnétiques provoquées respectivement par l’activité neuronale. En pratique, les deux systèmes peuvent prendre environ 1 000 clichés de l’activité cérébrale macroscopique chaque seconde, en utilisant des centaines de capteurs. » Les chercheurs ont exploité quatre ensembles de données EEG et MEG en libre accès, capitalisant plus de 150 heures d’enregistrements de 169 volontaires sains écoutant des livres audio et des phrases isolées en anglais et en néerlandais. Ils ont ensuite introduit ces enregistrements EEG et MEG dans un modèle de « cerveau », qui consiste en un réseau convolutif profond standard avec des connexions résiduelles. La prochaine étape consistera à voir si l’équipe peut étendre ce modèle pour décoder directement la parole à partir de l’activité cérébrale, sans avoir besoin du pool de clips audio. Cette approche bénéficie de l’exploitation de grandes quantités de données hétérogènes et pourrait contribuer à améliorer le décodage de petits ensembles de données. Les algorithmes pourraient être pré-entraînés sur de grands ensembles de données comprenant de nombreux individus et conditions, puis prendre en charge le décodage de l’activité cérébrale d’un nouveau patient avec peu de données.