Le modèle d’apprentissage automatique crée des images Doctor Who les plus effrayantes à ce jour – en scannant le cerveau d’un super fan

  • Français


  • Des chercheurs en IA ont tenté de reconstruire des scènes de Doctor Who en utilisant des algorithmes d’apprentissage automatique pour convertir les scans du cerveau en images.

    L’expérience farfelue est décrite dans un article publié via bioRxiv. Un type étendu à l’intérieur d’une machine fonctionnelle d’imagerie par résonance magnétique (IRMf), la tête serrée en place, et a été invité à regarder 30 épisodes de l’émission de science-fiction familiale à succès de la BBC pendant que l’équipement scannait son cerveau. Ces analyses ont ensuite été transmises à un réseau neuronal.

    Ce modèle d’apprentissage automatique, baptisé Brain2pix, a prédit la scène de Doctor Who qui a été regardée par le cobaye humain en utilisant uniquement ces scans de son activité cérébrale. Le système d’IA ne peut pas lire librement ses pensées ni déterminer une vieille image dans votre tête. Il est conçu et entraîné pour recréer le moment dans Doctor Who qui était observé uniquement à partir de l’activité cérébrale observée.

    Chaque scan cérébral IRMf a été transformé en un tableau de nombres, ou un tenseur, en utilisant une cartographie de champ réceptif. Cette technique “est un moyen de cartographier des emplacements cérébraux très spécifiques sur l’espace visuel car elle nous indique quel point dans le cerveau est responsable du pixel que vous voyez dans votre espace visuel”, Lynn Le, première auteur de l’étude et doctorante étudiant à l’Université Radboud de Nimègue aux Pays-Bas, a déclaré Le registre.

    Le modèle Brain2pix a pris ces tenseurs comme entrée et a produit une image visuelle, traduisant efficacement l’activité dans le cerveau en pixels de ce qui était probablement observé. Voici un exemple de ce à quoi cela ressemble en pratique:

    Dr Who

    Un assistant à retenir. Source: Brain2pix

    Comme vous pouvez le voir, les reconstructions sont un peu rhumologiques. Karen Gillan – qui a joué le rôle d’Amy Pond, l’acolyte fictive de Doctor Who dans les séries cinq à sept – ressemble plus à un monstre terrifiant ou à un extraterrestre de la série. Voici des exemples d’un extraterrestre Ood.

    bon

    Encore plus terrifiant. Cliquez pour agrandir. Source: Brain2pix

    Brain2pix a été formé à l’aide de données qui associent un clip Doctor Who spécifique avec son scan IRMf correspondant. Cela signifie que les images générées par la machine sont susceptibles de dépendre fortement des scans cérébraux particuliers du cobaye humain. Le modèle contient un réseau antagoniste génératif qui recrée la scène, et ses tentatives sont transmises à un réseau discriminateur qui doit deviner si l’image créée par l’apprentissage automatique ressemble à un véritable clip à partir des données d’entraînement.

    Si l’image reconstruite n’est pas assez bonne, le discriminateur la rejette et le générateur doit réessayer. Au fil du temps, le générateur s’améliore et parvient à tromper le discriminateur en lui faisant croire que ses images sont réelles.

    Les expériences qui impliquent la conversion de signaux cérébraux en paroles ou en images ont souvent une portée limitée. Il existe un chevauchement important entre les données d’entraînement et de test, ce qui signifie que vous ne pouvez pas vraiment tirer trop de conclusions à partir des résultats et des performances. Pourtant, dans cet essai, Brain2pix a été invité à générer des images à partir de l’activité cérébrale du spectateur alors qu’il regardait des épisodes pour la première fois. En tant que tels, les scans cérébraux pendant ces clips étaient un nouveau territoire pour le logiciel, et il devait comprendre ce qui était vu. Le chevauchement des données de formation et de test était minime.

    cerveau

    Une “ IA ” qui peut diagnostiquer la schizophrénie à partir d’un scanner cérébral – voici comment cela fonctionne (ou pas)

    LIRE LA SUITE

    Cependant, il est difficile de faire en sorte que Brain2pix transfère ce qu’il a appris sur un participant à un autre. Même si deux personnes regardaient le même clip de Doctor Who, le réseau neuronal serait probablement incapable de reconstruire les images à partir des scans du cerveau de quelqu’un d’autre s’il n’était pas explicitement formé sur eux.

    Pourtant, les chercheurs pensent que leurs travaux pourraient s’avérer utiles à l’avenir. «Premièrement, cela nous permet d’étudier comment le cerveau représente l’environnement, ce qui est une question clé dans le domaine des neurosciences sensorielles», nous a dit Le.

    «Deuxièmement, cela démontre une approche prometteuse pour plusieurs applications cliniques. Un exemple évident est une interface cerveau-ordinateur qui nous permettrait de communiquer avec des patients enfermés en accédant à leurs états cérébraux.

    Le rêve est que finalement, un jour, les neuroprothèses deviendront assez bonnes pour aider à restaurer la vision des aveugles. «Ici, l’objectif est de créer des perceptions de la vision chez les patients aveugles en contournant leurs yeux et en stimulant directement leur cerveau. Des approches telles que Brain2pix peuvent en principe être utilisées pour déterminer quel type de percepts pourrait être évoqué à la suite d’une telle stimulation neuronale directe », a-t-elle ajouté. ®

    Note de l’éditeur: Cet article a été clarifié après sa publication pour préciser qu’il y avait peu ou pas de chevauchement dans les données de test et d’entraînement: différents épisodes et saisons ont été utilisés pour les tests et l’entraînement.

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *