Stanford met hors ligne le modèle d’IA Alpaca coûteux et risqué

  • Français


  • La démonstration Web d’Alpaca, un petit modèle de langage d’IA basé sur le système LLaMA de Meta, a été mise hors ligne par des chercheurs de l’Université de Stanford en raison de problèmes de sécurité et de coût.

    L’accès à de grands modèles de langage contenant des centaines ou des dizaines de milliards de paramètres est souvent limité aux entreprises qui disposent des ressources nécessaires pour les former et les exécuter. Meta prévoyait de partager le code de son système LLaMA avec des chercheurs sélectionnés dans le but de stimuler la recherche sur les raisons pour lesquelles les modèles de langage génèrent des textes toxiques et faux. Meta espérait pouvoir le faire sans obliger les chercheurs à acquérir des systèmes matériels massifs.

    Un groupe d’informaticiens de l’Université de Stanford a affiné LLaMA pour développer Alpaca, un modèle open source de sept milliards de paramètres dont la construction aurait coûté moins de 600 dollars. Le code a été publié la semaine dernière et a attiré l’attention des développeurs après que certains auraient réussi à le faire fonctionner sur des ordinateurs Raspberry Pi et même un Pixel 6 téléphone intelligent.

    “Les modèles de suivi d’instructions tels que GPT-3.5 (text-davinci-003), ChatGPT, Claude et Bing Chat sont devenus de plus en plus puissants”, ont déclaré les chercheurs de Stanford.

    “De nombreux utilisateurs interagissent désormais régulièrement avec ces modèles et les utilisent même pour le travail. Cependant, malgré leur déploiement généralisé, les modèles de suivi d’instructions présentent encore de nombreuses lacunes : ils peuvent générer de fausses informations, propager des stéréotypes sociaux et produire un langage toxique.

    “Pour faire un maximum de progrès dans la résolution de ces problèmes urgents, il est important que la communauté universitaire s’engage. Malheureusement, faire des recherches sur les modèles de suivi des instructions dans le milieu universitaire a été difficile, car il n’existe aucun modèle open source qui se rapproche des capacités de des modèles à source fermée tels que text-davinci-003 d’OpenAI.”

    Alpaca a été affiné avec 50 000 échantillons de texte guidant le modèle en suivant des instructions spécifiques pour le faire fonctionner plus comme le text-davinci-003 d’OpenaI.

    Cependant, la page Web exécutant une démo d’Alpaca, qui permettait à quiconque d’interagir avec le modèle, a été supprimée peu de temps après son lancement en raison de problèmes de sécurité et de l’augmentation des coûts d’hébergement du modèle en ligne.

    “L’objectif initial de publier une démo était de diffuser nos recherches de manière accessible. Nous estimons que nous avons en grande partie atteint cet objectif, et compte tenu des coûts d’hébergement et des insuffisances de nos filtres de contenu, nous avons décidé de supprimer la démo”, a déclaré un porte-parole représentant l’institut d’intelligence artificielle centrée sur l’homme de l’Université de Stanford, a confirmé Le registre dans un rapport.

    Comme tous les autres modèles de langage, Alpaca est susceptible de générer de la désinformation, une propriété souvent décrite comme une hallucination. Le texte offensant est une autre sortie courante.

    “L’hallucination en particulier semble être un mode d’échec courant pour Alpaca, même par rapport à text-davinci-003”, ont noté les chercheurs. Dans certains exemples, le modèle n’a pas réussi à rappeler correctement la capitale de la Tanzanie et a produit de fausses informations techniques.

    Bien que la démo Web ait été retirée, l’ensemble de données et le code décrivant comment affiner le modèle restent disponibles sur GitHub. Les chercheurs ont déclaré qu’ils prévoyaient également de publier des détails sur les poids du modèle.

    “Alpaca contient probablement de nombreuses autres limitations associées à la fois au modèle de langage sous-jacent et aux données de réglage des instructions. Cependant, nous pensons que l’artefact sera toujours utile à la communauté, car il fournit un modèle relativement léger qui sert de base pour étudier d’importants carences », ont-ils déclaré.

    “Nous encourageons les utilisateurs à nous aider à identifier de nouveaux types d’échecs en les signalant dans la démo Web. Dans l’ensemble, nous espérons que la sortie d’Alpaca pourra faciliter des recherches plus approfondies sur les modèles de suivi des instructions et leur alignement sur les valeurs humaines.” ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *