L’IA rend les PC pertinents et les abonnements semblent minables

  • Français


  • Colonne L’année dernière, à la même époque, la dernière tendance informatique est devenue impossible à ignorer : d’énormes dalles de silicium avec des centaines de milliards de transistors – la conséquence inévitable d’un autre ensemble de solutions de contournement qui ont empêché la loi de Moore de tomber dans l’oubli.

    Mais la chute des ventes de PC suggère que nous n’avons pas besoin de ces ordinateurs monstres – et pas seulement à cause de l’ombre des ventes projetée par COVID.

    Au premier semestre 2022, l’informatique d’entreprise était à peu près la même qu’au cours de la dernière décennie : des applications bureautiques de base, des applications de communication d’équipe et, pour la classe créative, quelques outils multimédias enrichis. Bien sûr, les joueurs trouveraient toujours un moyen de faire fonctionner ces transistors, mais la grande majorité du matériel était déjà surpuissant et sous-utilisé. Pourquoi gaspiller des transistors sur des problèmes résolus ?

    Puis le monde a changé. Il y a un an, OpenAI a lancé DALL-E, le premier des outils d’IA générative largement disponibles – un “diffuseur” qui convertit le bruit, une invite de texte et une énorme base de données de pondérations en images. Cela ressemblait presque à de la magie. Peu de temps après, Midjourney a offert à peu près la même chose – bien qu’accordé à une esthétique de couverture d’album Prog Rock résolument des années 70. Il semblait que la demande de cloud computing allait monter en flèche à mesure que ces outils se retrouvaient dans les produits de Microsoft, Canva, Adobe et autres.

    Puis le monde a encore changé. En août, Stability AI a introduit une base de données open source de pondérations des diffuseurs. À ses débuts, Stable Diffusion exigeait un GPU à la pointe de la technologie, mais la communauté open source a rapidement découvert qu’il pouvait optimiser le diffuseur pour qu’il fonctionne sur, eh bien, à peu près n’importe quoi. Ce ne serait pas nécessairement rapide, mais cela fonctionnerait – et cela évoluerait avec votre matériel.

    Au lieu d’exiger des ressources cloud massives, ces nouveaux outils d’IA s’exécutent localement. Et si vous achetiez un ordinateur monstre, il fonctionnerait au moins aussi rapidement que tout ce qui est proposé par OpenAI ou Midjourney – sans abonnement.

    La communauté open source toujours passionnante qui pilote Stable Diffusion a créé une série impressionnante de nouvelles pondérations de diffuseurs, chacune ciblant une esthétique spécifique. Stable Diffusion n’est pas simplement aussi rapide que tout ce qui est proposé par une entreprise commerciale d’IA – il est à la fois plus utile et plus extensible.

    Et puis – oui, vous l’avez deviné – le monde a encore changé. Début décembre, ChatGPT d’OpenAI a complètement réécrit nos attentes en matière d’intelligence artificielle, devenant l’application Web la plus rapide à atteindre 100 millions d’utilisateurs. Un grand modèle de langage (LLM) alimenté par un “transformateur génératif pré-formé” – combien d’entre nous ont oublié que c’est ce que signifie GPT ? – qui a formé ses pondérations sur les vastes trésors de texte disponibles sur Internet.

    On estime que cet effort de formation a coûté des millions (peut-être des dizaines de millions) en ressources de cloud computing Azure. On s’attendait à ce que ce coût d’entrée soit suffisant pour tenir les concurrents à distance, à l’exception peut-être de Google et de Meta.

    Jusqu’à ce que, encore une fois, le monde change. En mars, Meta a publié LLaMA – un modèle de langage beaucoup plus compact et efficace, avec une base de données de pondérations relativement petite, mais avec une qualité de réponse proche du GPT-4 d’OpenAI.

    Avec un modèle de seulement trente milliards de paramètres, LLaMA peut confortablement s’asseoir dans un PC avec 32 Go de RAM. Quelque chose de très semblable à ChatGPT – qui s’exécute sur le cloud Azure en raison de son énorme base de données de pondérations – peut être exécuté à peu près n’importe où.

    Les chercheurs de Meta ont offert leurs pondérations à leurs pairs universitaires, téléchargeables gratuitement. Comme LLaMA pouvait fonctionner sur leurs ordinateurs de laboratoire, les chercheurs de Stanford ont immédiatement amélioré LLaMA grâce à leur nouvelle technique de formation appelée Alpaca-Lora, qui a réduit le coût de formation d’un ensemble existant de pondérations de centaines de milliers de dollars à quelques centaines de dollars. Ils ont également partagé leur code.

    Tout comme DALL-E a perdu au profit de Stable Diffusion pour la convivialité et l’extensibilité, ChatGPT semble perdre une autre course, car les chercheurs produisent une gamme de modèles – tels que Alpaca, Vicuña, Koala et une ménagerie d’autres – qui s’entraînent et re- former rapidement et à peu de frais.

    Ils s’améliorent beaucoup plus rapidement que prévu. C’est en partie parce qu’ils s’entraînent sur de nombreuses “conversations” ChatGPT qui ont été partagées sur des sites comme Reddit, et ils peuvent bien fonctionner sur la plupart des PC. Si vous avez un ordinateur monstre, il fonctionne très bien.

    Les machines pour lesquelles nous ne pouvions pas imaginer d’utilisation il y a à peine un an ont trouvé leur raison d’être : elles deviennent les bêtes de somme de toutes nos tâches d’IA génératives. Ils nous aident à coder, planifier, écrire, dessiner, modéliser et bien plus encore.

    Et nous ne serons pas redevables aux abonnements pour faire fonctionner ces nouveaux outils. Il semble que l’open source ait déjà dépassé le développement commercial des diffuseurs et des transformateurs.

    L’IA open source nous a également rappelé pourquoi le PC a proliféré : en permettant de ramener à la maison des outils qui n’étaient autrefois disponibles qu’au bureau.

    Cela ne fermera pas la porte au commerce. Au contraire, cela signifie qu’il y a plus de possibilités pour les entrepreneurs de créer de nouveaux produits, sans se soucier de savoir s’ils enfreignent les modèles commerciaux sous-jacents à Google, Microsoft, Meta ou n’importe qui d’autre. Nous nous dirigeons vers une époque de bouleversement généralisé de la technologie – et la taille ne semble pas conférer beaucoup d’avantages.

    Les monstres sont en liberté. Je pense que c’est une bonne chose. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *