Cerebras apporte des puces d’IA de la taille d’une tranche à l’analyse des données médicales

  • FrançaisFrançais



  • La startup de puces AI Cerebras Systems a déployé l’un de ses systèmes CS-2 dans une startup bien financée qui utilise le traitement du langage naturel pour analyser d’énormes quantités de données biomédicales.

    Comme annoncé lundi, nference prévoit d’utiliser ce CS-2 pour former de grands modèles de transformateurs conçus pour traiter les informations provenant de piles de données médicales non structurées afin de fournir de nouvelles informations aux médecins et d’améliorer la récupération et le traitement des patients. Le CS-2 est alimenté par le processeur Wafer-Scale Engine de deuxième génération de Cerebras, ainsi appelé parce que la puce est de la taille d’une tranche.

    Cerebras a déclaré que ce déploiement marque une autre victoire client importante dans le domaine des soins de santé et des sciences de la vie après l’installation de systèmes similaires chez les géants pharmaceutiques GlaxoSmithKline et AstraZeneca ainsi qu’au laboratoire national d’Argonne du département américain de l’Énergie pour la recherche liée au COVID-19.

    Andrew Feldman, PDG de Cerebras, a déclaré Le registre cette installation à nference, basée au Massachusetts, est un autre témoignage de la conviction de Cerebras que ses puces IA de la taille d’une tranche sont mieux adaptées que les puces traditionnelles comme les GPU de Nvidia pour analyser de grandes quantités de données aussi rapidement que possible, ce qui est de plus en plus important dans des domaines comme les soins de santé et les sciences de la vie.

    “Tout cela est extrêmement gourmand en calcul. Il est bien adapté à ces nouvelles techniques de calcul et à l’intelligence artificielle. Et ce sont exactement les techniques que nous sommes des centaines de fois plus rapides [at] que [Nvidia],” il a dit.

    Dans le cas de nference, la startup biomédicale financée par la Mayo Clinic utilisera le système CS-2 de Cerebras pour former des modèles d’apprentissage auto-supervisés sur de grandes quantités de données médicales non structurées, qui peuvent inclure des dossiers de patients, des articles scientifiques, de l’imagerie médicale et des données génomiques. bases de données.

    La nature non structurée de ces données, qui varie selon le format de fichier, peut être un énorme casse-tête pour les scientifiques des données et les chercheurs en apprentissage automatique à traiter à l’aide de méthodes informatiques traditionnelles, selon Cerebras. La startup de la puce AI a déclaré que cela peut même obliger les chercheurs à recourir à la tâche ennuyeuse et inefficace de parcourir les documents à la main.

    “Ce sont quelques-uns des domaines de recherche les plus fertiles. Ils ont de grandes quantités de données, et le génome humain et d’autres génomes en font partie. Ils sont incroyablement grands”, a déclaré Feldman.

    Ce qui rend les puces de Cerebras si adaptées aux grands ensembles de données comme celui-ci, c’est leur grande taille. Alors que d’autres sociétés de semi-conducteurs fabriquent plusieurs puces à partir de matrices découpées dans une seule plaquette, Cerebras de la Silicon Valley fabrique une puce à partir d’une plaquette entière. Cela permet à Cerebras de regrouper une énorme quantité de cœurs de traitement – ​​850 000 dans le cas de son dernier processeur – sur une puce composée de 2,6 billions de transistors.

    Feldman a déclaré que cela rend la puce Wafer-Scale Engine de Cerebras 56 fois plus grande que la plus grande puce précédente jamais fabriquée, et cela permet de manière cruciale à de grands ensembles de données de rester sur la puce pendant le traitement, réduisant considérablement le besoin d’informations à faire passer à plusieurs reprises dans et sortir, ce qui prend du temps. Il oppose cette approche super-die à l’architecture de Nvidia, qui, selon lui, est beaucoup plus lente car elle repose sur des interconnexions pour transporter les informations entre les GPU et les CPU individuels lorsqu’ils tentent d’effectuer le même niveau de traitement.

    “Lorsque nous devons le déplacer, nous le déplaçons autour de la puce. Et c’est le moyen le plus rapide de déplacer des informations à la demande”, a-t-il déclaré. “Ainsi, lorsque vous devez passer d’une puce à un commutateur Mellanox ou au CPU, ce que les GPU doivent faire, vous êtes quelque part entre 1 000 et 10 000 fois plus lent que si vous pouviez conserver les informations sur une puce et déplacer sur votre morceau de silicium », a-t-il poursuivi.

    Ce qui rend le système CS-2 de Cerebras particulièrement attrayant pour l’inférence est le fait qu’il peut accueillir des lignes de séquence plus longues que les systèmes traditionnels, selon Feldman.

    “Avec le CS-2, ils peuvent former des modèles de transformateurs avec des lignes de séquence plus longues qu’auparavant, ce qui permet [them] pour itérer plus rapidement et construire des modèles meilleurs et plus perspicaces », a-t-il déclaré. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.