Meta publie LLaMA, une IA textuelle plus petite peut-être plus performante

  • Français


  • En bref Meta a publié son Large Language Model Meta AI, torturément surnommé LLaMA, qui promet de fonctionner aussi bien sinon mieux que des systèmes similaires contenant des milliards de paramètres supplémentaires.

    Les grands modèles de langage font fureur en ce moment. Microsoft et Google, pour n’en citer que deux, sont en concurrence pour construire les meilleurs modèles pour booster leurs moteurs de recherche. Ces systèmes sont à usage général et ont été utilisés pour plus que la recherche sur le Web, comme l’étude des protéines ou la découverte de médicaments.

    Ces modèles sont gourmands en calculs, ce qui rend leur formation et leur exécution difficiles et coûteuses pour les développeurs, et complique l’étude de ces systèmes par les chercheurs.

    LLaMA, cependant, est plus petit et contient jusqu’à 65 milliards de paramètres, ce qui le rend potentiellement plus facile à utiliser. C’est tout aussi puissant, sinon plus, que d’autres modèles de langage de premier plan, selon Yann LeCun, scientifique en chef de l’IA chez Meta. Il a déclaré que LLaMa est tout aussi bon que les plus grands modèles de langage, y compris le PaLM de 540 milliards de paramètres de Google.

    Et en parlant d’autres modèles, Meta a fait valoir que ces systèmes sont à peu près hors de portée des gens pour les scruter et les examiner correctement, ce qui freine la compréhension, l’amélioration et l’évaluation des logiciels d’apprentissage automatique.

    “Cet accès restreint a limité la capacité des chercheurs à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, entravant les progrès des efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et le potentiel de génération de fausses informations”, Meta – qui sait tout sur la toxicité et la désinformation – a déclaré vendredi.

    Meta prévoit plutôt de rendre sa technologie un peu plus disponible pour que les gens puissent l’étudier ; il dit qu’il publiera son modèle de langage sous une licence non commerciale aux développeurs à des fins de recherche au cas par cas. Vous pouvez lire ici un article technique sur la technologie.

    “Nous pensons que l’ensemble de la communauté de l’IA – chercheurs universitaires, société civile, décideurs et industrie – doit travailler ensemble pour élaborer des directives claires concernant l’IA responsable en général et les grands modèles de langage responsables en particulier. Nous sommes impatients de voir ce que la communauté peut apprendre – et éventuellement construire – en utilisant LLaMA”, a conclu Meta.

    Le créateur de l’application Lensa AI poursuivi en justice dans le cadre d’un recours collectif BIPA

    Le fabricant de l’application d’avatar AI virale Lensa a enfreint la loi sur l’information biométrique et la confidentialité de l’Illinois en collectant et en stockant les photos des gens sans leur consentement, selon un recours collectif contre le business.

    Lensa AI a grimpé en flèche au sommet des magasins d’applications à la fin de l’année dernière alors que les gens se sont mis à créer des images générées par l’IA basées sur leurs propres selfies. Des millions de personnes ont téléchargé l’application pour utiliser Magic Avatar, une fonctionnalité qui utilise des algorithmes d’intelligence artificielle pour produire des images représentant les visages des gens de manière caricaturale et colorée.

    Bien que cela puisse sembler un peu amusant, un groupe de résidents de l’État américain de l’Illinois affirme que la société qui a construit l’application, Prisma Labs, a collecté et stocké des images de ses utilisateurs sans autorisation explicite pour former ses systèmes d’IA. Afin de créer un avatar magique, les gens devaient donner à l’entreprise non seulement huit photographies différentes, mais aussi l’accès à toute leur photothèque.

    “Les plaignants dans ce procès, et des millions d’autres comme eux, ont involontairement fourni leurs données biométriques faciales à Prisma Labs lorsqu’ils ont téléchargé l’application Lensa”, a déclaré Tom Hanson, avocat chez Loevy & Loevy représentant les plaignants. “La géométrie faciale d’une personne est comme son empreinte digitale : c’est un identifiant unique et immuable qui mérite le plus haut degré de protection que la loi peut offrir.”

    Le registre a demandé à Prisma Labs de commenter.

    Faire fonctionner Bing et Bard coûtera des milliards à Microsoft et Google

    Les chatbots de recherche alimentés par l’IA sont extrêmement coûteux à exécuter et coûteront probablement des milliards de dollars à Google et Microsoft en calcul. Le parrain de la puce MIPS, John Hennessy, qui est aujourd’hui président de la société mère Alphabet de Google, a déclaré à Reuters que les opérations de recherche sur le Web utilisant ces nouveaux chatbots pourraient coûter dix fois plus qu’une requête standard saisie dans un navigateur Web.

    Les analystes de Morgan Stanley ont estimé que si le prochain chatbot Bard de Google devait traiter la moitié des 3,3 billions de requêtes de recherche que l’entreprise reçoit généralement en un an, cela coûterait à l’entreprise 6 milliards de dollars en dépenses d’exploitation pour générer des réponses de 50 mots à chaque question.

    Microsoft ressent également le pincement avec son nouveau modèle Bing sans aucun doute. La directrice financière de la société, Amy Hood, a cependant déclaré que le coût en valait la peine puisque Bing attire les utilisateurs et les revenus publicitaires. “C’est une marge brute supplémentaire pour nous, même au prix du service dont nous discutons”, a-t-elle déclaré.

    Connexion bancaire basée sur la voix fissurée à l’aide de l’audio cloné par l’IA

    Les experts en sécurité tirent la sonnette d’alarme sur l’authentification basée sur la voix utilisée pour accéder aux comptes privés, car l’IA peut désormais cloner de manière convaincante le son de la voix de quelqu’un et se connecter à ces profils.

    Dans une expérience, le journaliste de Vice Joseph Cox a accédé à son propre compte bancaire en ligne en lisant des clips audio générés par un logiciel d’intelligence artificielle qui imitait sa voix, comme le montre la vidéo ci-dessous…

    Il a eu accès à son propre compte sans utiliser sa vraie voix, en utilisant une technologie prête à l’emploi. Il est maintenant facile et peu coûteux de cloner les voix des gens à l’aide de l’IA, surtout s’il y a beaucoup d’échantillons audio pour affiner le logiciel. Les célébrités, les politiciens et d’autres types de personnalités publiques pourraient être plus faciles à cibler de cette manière.

    Rachel Tobac, PDG de la société d’ingénierie sociale SocialProof Security, a déclaré à Vice’s Motherboard : “Je recommande à toutes les organisations d’utiliser le passage de l'”authentification” vocale à une méthode sécurisée de vérification d’identité, comme l’authentification multifacteur, ASAP.” Elle a averti que les attaques de clonage de voix peuvent être “complétées sans jamais avoir besoin d’interagir avec la personne dans la vraie vie”.

    Chatbots IA contre Section 230

    L’affaire très médiatisée de la Cour suprême des États-Unis Gonzalez contre Google a soulevé une nouvelle question : les chatbots IA seraient-ils protégés par la loi américaine Section 230 ?

    L’article 230, dans la grande majorité des cas, protège les plateformes en ligne d’être légalement responsables du contenu publié par leurs utilisateurs. Si un utilisateur pose une question à un chatbot IA et qu’il répond en disant quelque chose de légalement douteux, ses créateurs pourraient-ils être poursuivis ?

    Le juge Neil Gorsuch en a parlé lors d’une audience pour l’affaire en cours Gonzalez cas.

    “L’intelligence artificielle génère de la poésie”, a-t-il déclaré. “Cela génère aujourd’hui des polémiques qui seraient du contenu qui va au-delà de la cueillette, du choix, de l’analyse ou de la digestion du contenu. Et qui n’est pas protégé. Supposons que c’est vrai. Alors la question devient, que faisons-nous des recommandations ?”

    L’affaire continue. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *