Ajouter l’IA à tout n’aura aucun sens tant que nous ne pourrons pas l’utiliser pour quoi que ce soit

  • FrançaisFrançais



  • Avis Nous sommes au bord de l’âge d’or de l’IA. Ça doit être vrai, on ne cesse de nous le dire. Le prédicateur de cette semaine est Samsung, qui dit avoir intégré des processeurs avec mémoire pour obtenir des chiffres d’IA stellaires : “Environ deux fois les performances des applications de recommandation basées sur l’IA et une diminution de 40 % de la consommation d’énergie à l’échelle du système.”

    Il n’y a aucune raison d’en douter. L’un des inconvénients de la mémoire à bande passante élevée (HBM) est qu’il faut beaucoup de puissance pour envoyer un grand nombre de données à travers un bus externe très rapide, et un avantage de l’architecture processeur en mémoire (PIM) est que les données peuvent passez de la RAM au processeur et vice-versa sans avoir besoin de beaucoup d’efforts. Si Los Angeles était un arrondissement de Londres à côté d’Islington, tous ces jeunes de mauvaise humeur qui lancent leurs scénarios pourraient cesser de s’inquiéter de leur empreinte carbone.

    Mais pourquoi Samsung spécifie-t-il l’IA ? La physique de HBM-PIM ne se soucie pas de savoir si vous effectuez une analyse d’images massivement parallèle à l’aide de l’apprentissage automatique, réalisez un film de super-héros ou parcourez simplement un million de dossiers de clients à la recherche d’une personne à qui vendre une mise à niveau de forfait téléphonique.

    AI/ML est l’enfant d’affiche ici parce qu’il est particulièrement bon pour bénéficier du traitement sur place, c’est-à-dire que le traitement sur place ne sera pas si bon pour d’autres choses.

    C’est un truisme du calcul haute performance depuis les années 1960 que le vrai facteur limitant est la bande passante, pas la puissance de calcul. Les ordinateurs sont inutiles sans données, et bien que vous puissiez faire toutes sortes de trucs pour rendre un processeur petit et rapide, vous repoussez par définition ce que vous pouvez faire à petite échelle. Et vos données vivent à plus grande échelle et seront plus lentes à arriver.

    PIM AI peut cacher cela car il effectue un travail utile sur des ensembles de données volumineux qui peuvent néanmoins tenir dans la grande mémoire d’aujourd’hui, mais c’est une application pur-sang qui a besoin d’être entretenue et ajustée. Ce ne peut pas être à la fois un cheval de course et un cheval de trait.

    Jouer aux jeux

    Nous savons à quel point cela limite les choses parce que c’est déjà arrivé. Regardons les GPU, qui illustrent bien les tensions entre les marchés et la technologie. Le jeu est le moteur du marché des GPU, qui représente l’essentiel de leurs caractéristiques architecturales – un calcul géométrique massivement parallèle, étroitement lié à une mémoire très rapide, et un éventail croissant d’astuces d’apprentissage automatique pour deviner à quoi ressemblera quelque chose sans faire tous les calculs.

    Il existe d’autres domaines de tâches de calcul qui s’intègrent assez bien dans ce modèle, certainement mieux que dans le modèle général de von Neumann des processeurs. Et ainsi, les GPU trouvent des foyers dans les centres de données pour des tâches d’apprentissage automatique spécifiques, des superordinateurs scientifiques et – hélas – des cryptomills des mines de devises.

    Ces domaines ont en commun d’avoir du sens même avec, et seulement avec, le haut niveau d’expertise nécessaire à leur bon fonctionnement. Il n’y a pas de magasin d’applications, pas de Steam, pour les verticales GPU ; vous vous attendez à payer pour le développement pour faire fonctionner chaque tâche. Votre coûteux radiateur Nvidia ne rend pas votre ordinateur plus rapide en général, même s’il a plus de téraflops que le monde ne le savait en 1985.

    C’est profondément frustrant. De toutes les ressources rares en informatique, l’intelligence humaine extrême est au rendez-vous avec les puces Intel non x86 à succès. Certains secteurs très prometteurs, comme le supercalculateur FPGA, ont vraiment souffert à cause de cela. Vous pouvez, sur le papier, faire un superbe ordinateur où vous pourrez complètement reconfigurer le matériel pour implémenter vos algorithmes en silicium natif ; c’est juste qu’il n’y a pas assez de gens qui savent comment y arriver. Un marché de masse a besoin d’outils que les personnes régulièrement intelligentes peuvent utiliser pour fabriquer de meilleurs produits que de bons produits.

    Même là où les GPU ne font que des graphiques, cela ne s’est pas vraiment produit. D’une architecture à l’autre, voire d’un modèle à l’autre, les différences de matériel rendent difficile le maintien de piles performantes, fiables, efficaces et portables.

    Le travail fait une fois doit souvent être refait. L’idée était que l’avancée des API de bas niveau réduirait le besoin pour les conducteurs de faire tout le travail lourd, et les développeurs pourraient innover sans être redevables aux fabricants de GPU pour obtenir leur foutu logiciel. Cela ne s’est pas produit. Il est toujours plus facile de faire du matériel avec beaucoup de potentiel que d’écrire des compilateurs qui le libèrent.

    C’est ce qui pourrait contrecarrer des efforts comme AI-in-RAM. Beaucoup d’entre eux auront de bons résultats dans de riches marchés de niche, mais nous ne pourrons pas utiliser l’IA sans des outils polyvalents appropriés. Ces outils ne se produiront pas sans normes appropriées pour leur offrir un large éventail de plates-formes cibles et la possibilité de retours sur investissement durables sur plusieurs générations de matériel. Personne ne parle de ces normes. Chaque fournisseur vend son propre matériel d’IA, dans les GPU, dans les puces mémoire, dans le traitement vidéo des téléphones portables, dans tel ou tel créneau accéléré.

    Nous avons besoin de ce marché de l’IA à usage général, car cet avenir sera fantastique. Qui ne veut pas avoir un programme graphique qui répondra à la commande “dessine-moi une image d’Alan Turing recevant un CBE de la reine, qui brandit une épée parsemée de Xeon die pour l’occasion”, et le faire fonctionner non peu importe où réside le matériel d’IA ?

    Notre logiciel graphique multiplateforme actuel ? Progéniture mutante de MS Paint. On est loin de l’âge d’or de l’IA. Tant que les fabricants de matériel ne feront pas plus d’efforts dans les logiciels, se parleront et créeront des architectures avec un œil sur les cas généraux, pas les meilleurs, nous n’y arriverons pas de si tôt. ®

    L'équipe de Comparaland

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive. Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *