Les puces ARM peuvent presque battre les processeurs x86, le GPU A100 104 fois plus rapide que les processeurs

  • Français


  • NVIDIA tourne autour d’ARM depuis un certain temps et a déjà commencé à promouvoir l’architecture de calcul dans les benchmarks. Un serveur équipé d’un GPU A100 avec un processeur ARM et x86 s’est avéré avoir des performances très similaires (bien que x86 ait toujours des performances de pointe plus élevées).

    L’éternel problème est bien sûr le fait que, bien qu’ARM surpasse le x86 dans les scénarios à faible consommation/haute efficacité (pensez aux smartphones), il n’est pas en mesure d’adapter cette efficacité énergétique à des horloges élevées. Les fuites sont en fait l’une des raisons pour lesquelles les nouvelles puces A15 d’Apple ont été une relative déception jusqu’à présent. Les serveurs étant le bord absolu du calcul hautes performances sont alors un domaine où x86 a généralement régné en maître, bien que NVIDIA aimerait changer le récit dans la mesure du possible. Nous voyons que le serveur A100 basé sur ARM a en fait réussi à battre x86 dans la charge de travail de niche 3d-Unet tandis que les plus courants comme ResNet 50 restent dominés par x86.

    « Arm, en tant que membre fondateur de MLCommons, s’est engagé dans le processus de création de normes et de références pour mieux relever les défis et inspirer l’innovation dans l’industrie de l’informatique accélérée », a déclaré David Lecomber, directeur principal du HPC et des outils chez Arm.

    “Les derniers résultats d’inférence démontrent la préparation des systèmes basés sur Arm alimentés par des processeurs basés sur Arm et des GPU NVIDIA pour s’attaquer à un large éventail de charges de travail d’IA dans le centre de données”, a-t-il ajouté.

    Bien sûr, lorsque vous parlez d’inférence, les GPU restent le roi. NVIDIA n’a retenu aucun coup lorsqu’il a souligné qu’un GPU A100 est 104 fois plus rapide qu’un CPU dans les benchmarks MLPERF.

    L’inférence est ce qui se passe lorsqu’un ordinateur exécute un logiciel d’IA pour reconnaître un objet ou faire une prédiction. C’est un processus qui utilise un modèle d’apprentissage en profondeur pour filtrer les données et trouver des résultats qu’aucun humain ne pourrait capturer.

    Les références d’inférence de MLPerf sont basées sur les charges de travail et les scénarios d’IA les plus populaires d’aujourd’hui, couvrant la vision par ordinateur, l’imagerie médicale, le traitement du langage naturel, les systèmes de recommandation, l’apprentissage par renforcement et plus encore.

    Tout, du populaire benchmark ResNet-50 de classification des images au traitement du langage naturel, a été testé et le GPU A100 a régné en maître sur tout. Avec NVIDIA face aux derniers obstacles réglementaires dans son acquisition d’ARM, nous allons commencer à voir Jensen pousser pour la domination d’ARM dans l’espace serveur et l’écosystème environnant jaillir dans l’espace. Bien que cela ne se produise pas du jour au lendemain, la première véritable menace pour x86 en tant que première architecture de calcul pourrait bien être en cours.

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *