Le processeur photonique peut classer des millions d’images plus rapidement que vous ne pouvez cligner des yeux

  • FrançaisFrançais



  • Des ingénieurs de l’Université de Pennsylvanie affirment avoir développé un processeur de réseau neuronal profond photonique capable d’analyser des milliards d’images chaque seconde avec une grande précision en utilisant la puissance de la lumière.

    Cela peut ressembler à de la science-fiction ou au rêve fiévreux d’un ingénieur optique, mais c’est exactement ce que les chercheurs de la School of Engineering and Applied Sciences de l’université américaine affirment avoir fait dans un article publié dans la revue Nature plus tôt ce mois-ci.

    La puce autonome pilotée par la lumière – ce n’est pas un autre accélérateur ou coprocesseur PCIe – gère les données en simulant des neurones cérébraux qui ont été formés pour reconnaître des modèles spécifiques. Ceci est utile pour une variété d’applications, y compris la détection d’objets, la reconnaissance faciale et la transcription audio pour n’en nommer que quelques-unes.

    Traditionnellement, cela a été réalisé en simulant une approximation des neurones à l’aide de puces de silicium standard, telles que les GPU et autres ASIC. Les universitaires ont déclaré que leur puce était la première à le faire optiquement en utilisant des signaux lumineux.

    “La faible consommation d’énergie et le temps de calcul ultra-faible offerts par notre puce de classificateur photonique peuvent révolutionner des applications telles que la détection d’objets saillants et pilotée par les événements”, ont écrit les auteurs de l’article.

    Dans une preuve de concept détaillée dans Nature, la puce photonique a pu catégoriser une image en moins de 570 picosecondes avec une précision de 89,8 à 93,8 %. Selon les auteurs, cela place la puce au même niveau que les GPU haut de gamme pour la classification des images.

    Pour mettre cela en perspective, cela équivaut à un peu plus d’un demi-milliard d’images dans le temps qu’il vous faut pour cligner des yeux (1/3 de seconde). Et l’équipe postule qu’un traitement encore plus rapide – de l’ordre de 100 picosecondes par image – est possible en utilisant les processus de fabrication commerciaux disponibles aujourd’hui.

    Selon l’article, cela offre de nombreux avantages, notamment une faible consommation d’énergie, un débit élevé et moins de goulots d’étranglement par rapport aux technologies existantes de réseaux neuronaux profonds qui sont soit physiquement séparées du capteur d’image, soit liées à une fréquence d’horloge.

    “Le traitement direct sans horloge des données optiques élimine la conversion analogique-numérique et la nécessité d’un grand module de mémoire, permettant des réseaux de neurones plus rapides et plus économes en énergie pour la prochaine génération de systèmes d’apprentissage en profondeur”, ont écrit les auteurs de l’article.

    De plus, comme tous les calculs sont effectués dans la puce, aucun capteur d’image n’est requis. En fait, parce que le traitement se fait optiquement, c’est le capteur d’image.

    Le test

    Avant que vous ne soyez trop excité, les images utilisées dans la preuve de concept étaient positivement minuscules, mesurant 30 pixels au total. Le test réel consistait à classer les caractères “P” et “d” dessinés à la main projetés sur la puce. Néanmoins, il était toujours capable d’atteindre une précision légèrement inférieure à la populaire API d’apprentissage en profondeur Keras (96%) fonctionnant en Python.

    Cependant, l’équipe note que la résolution n’est pas le facteur limitant ici, et rien ne les empêche de faire évoluer la puce pour prendre en charge des résolutions plus importantes. De plus, ils affirment que la technologie pourrait être utilisée pour classer toutes les données pouvant être converties en un signal optique.

    Si cela est vrai, la technologie a des implications pour une variété de domaines, la détection d’objets vidéo étant la plus évidente, puisque le traitement pourrait effectivement être effectué en temps réel et ne serait pas limité à la fréquence d’images d’un capteur d’image numérique traditionnel.

    “La large bande passante disponible aux fréquences optiques ainsi que la faible perte de propagation des guides d’ondes nanophotoniques – servant d’interconnexions – font des circuits intégrés photoniques une plate-forme prometteuse pour mettre en œuvre des unités de traitement rapides et économes en énergie”, indique l’article.

    Comment ça fonctionne

    La puce de neuf millimètres carrés est composée de deux couches, un composant optique qui gère le côté calcul et une couche optoélectrique responsable du traitement du signal.

    La couche optique comporte un réseau 5×6 de coupleurs à grille qui agissent comme des pixels d’entrée. La lumière de ces pixels est divisée en trois sous-images de 3 x 4 pixels qui se chevauchent, puis acheminée vers neuf neurones artificiels répartis sur trois couches à l’aide de guides d’ondes nanophotoniques.

    La couche optoélectrique convertit ensuite le signal optique en une tension, l’amplifie et le transmet à un modulateur à micro-anneau qui reconvertit le signal en lumière, qui peut ensuite être interprétée par un processeur de signal numérique.

    Cependant, avant que la puce puisse rendre des résultats utilisables, elle doit être entraînée. Les chercheurs y sont parvenus en utilisant une série d’images d’entraînement projetées sur une matrice de pixels secondaire sur la puce.

    La sortie de ces images était ensuite dans un réseau neuronal numérique qui réplique la puce de Keras fonctionnant sur Python pour déterminer les vecteurs de poids optimaux. Une combinaison de microcontrôleurs et de convertisseurs analogiques numériques a ensuite été utilisée pour réécrire ces poids sur la puce.

    Une fois formés, toutes les classifications sont gérées dans la puce.

    Selon les chercheurs, la technologie répond à plusieurs des limitations inhérentes aux réseaux de neurones profonds basés sur GPU et ASIC aujourd’hui et a le potentiel de “révolutionner” plusieurs applications, y compris la détection d’objets.

    L’équipe affirme en outre qu’en augmentant la taille de la puce, des résolutions plus élevées ou un plus grand nombre de neurones pourraient être atteints, les seules limitations étant la bande passante des modulateurs à micro-anneaux et les photodiodes silicium-germanium dans la couche optoélectronique.

    De plus, les recherches postulent que les processus de fabrication commerciale offrant une intégration monolithique des composants électriques et photoniques pourraient encore accélérer la puce, permettant des bandes passantes de l’ordre de dizaines de gigahertz et des temps de traitement inférieurs à 100 picosecondes. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.