OpenAI avertit les utilisateurs des limites et des défauts de GPT-4 Vision

  • Français


  • L’IA en bref OpenAI déploie des mises à niveau pour GPT-4 qui permettront, entre autres choses, au modèle d’IA de répondre aux requêtes d’un utilisateur concernant une image soumise – et le super-laboratoire a au moins documenté certains risques de sécurité impliquant cette capacité.

    Le but de cette nouvelle fonctionnalité est simple : un utilisateur peut télécharger un fichier image et, via ChatGPT, poser les questions GPT-4 mises à jour sur cette image, auxquelles il tentera de répondre. Un article d’OpenAI décrivant cette mise à jour de GPT-4V (où le V signifie vision) a révélé que l’entreprise travaillait sur l’ajout de protections pour limiter le potentiel du réseau neuronal à exposer des données privées ou à générer des sorties inappropriées lors du traitement des images soumises.

    OpenAI a, par exemple, tenté de bloquer la capacité du modèle à reconnaître des visages ou des emplacements exacts à partir de photos téléchargées, ainsi que de s’abstenir de commenter l’apparence des personnes dans les clichés soumis, nous dit-on. Des défenses supplémentaires consistent notamment à empêcher le LLM de résoudre automatiquement les CAPTCHA ou de décrire un comportement illicite, et à tenter de réduire sa tendance à générer de fausses informations.

    “Dans certains cas, il pourrait également ne pas réussir à identifier les informations contenues dans les images. Il pourrait manquer du texte ou des caractères, ignorer les symboles mathématiques et être incapable de reconnaître les emplacements spatiaux et les mappages de couleurs”, prévient l’entreprise dans son article. [PDF] décrivant GPT-4V.

    Les limites du modèle signifient que le LLM n’est pas bien adapté à l’exécution de certaines tâches, en particulier celles qui sont risquées, comme l’identification de drogues illégales ou de champignons comestibles. OpenAI a également averti que GPT-4V, comme d’habitude pour un modèle GPT-4, a la capacité de générer du texte et des images qui pourraient être utilisés pour diffuser une désinformation efficace à grande échelle.

    “Des travaux antérieurs ont montré que les gens sont plus susceptibles de croire des déclarations vraies et fausses lorsqu’elles sont présentées à côté d’une image, et d’avoir de faux souvenirs de titres inventés lorsqu’elles sont accompagnées d’une photo. On sait également que l’engagement avec le contenu augmente lorsqu’il est associé à une image”, précise-t-il.

    Concrètement, GPT-4V et ses capacités de traitement d’image peuvent être utilisés via ChatGPT d’OpenAI par les utilisateurs Plus. Pendant ce temps, OpenAI déploie la prise en charge de la saisie vocale sur iOS et Android pour les utilisateurs de ChatGPT Plus. “Vous pouvez désormais utiliser la voix pour engager une conversation avec votre assistant”, a déclaré l’entreprise.

    Nous avons déjà parlé de la mystérieuse startup française d’IA Mistral, et maintenant le secteur a publié – via un lien Magnet – un grand modèle de langage de 7,3 milliards de paramètres qui, selon lui, surpasse certains concurrents. On dit également qu’il n’est ni modéré ni censuré, il peut donc être utilisé pour produire des résultats douteux ainsi que les tâches habituelles que ces LLM peuvent faire à partir d’invites. Utilisez… comme vous le souhaitez, nous devinons.

    “Le modèle Mistral 7B Instruct est une démonstration rapide que le modèle de base peut être facilement ajusté pour obtenir des performances convaincantes”, a déclaré l’entreprise. “Il ne dispose d’aucun mécanisme de modération. Nous sommes impatients de collaborer avec la communauté sur les moyens de faire en sorte que le modèle respecte finement les garde-fous, permettant un déploiement dans des environnements nécessitant des sorties modérées.”

    Meta étend la fenêtre contextuelle pour les modèles Llama 2

    Meta a étendu la longueur du texte que les utilisateurs peuvent saisir dans ses modèles Llama 2 jusqu’à 32 768 jetons ou morceaux de mots, doublant ainsi les systèmes résultants Llama 2 Long.

    L’augmentation de la longueur de l’invite de saisie signifie que les modèles peuvent traiter davantage de données pour effectuer des tâches plus complexes, telles que la synthèse de rapports volumineux ou la recherche d’informations sur des contextes plus longs.

    Gardez à l’esprit : le modèle Claude d’Anthropic peut traiter jusqu’à 100 000 jetons, une quantité de texte équivalente à 75 000 mots ou des centaines de pages de prose. Dans un papier [PDF] publié la semaine dernière, Meta a affirmé que son modèle de langage large de 70 milliards de paramètres, Llama 2 Long, sans surprise, surpasse le modèle GPT-3.5-turbo d’OpenAI avec une fenêtre contextuelle de 16 000 jetons.

    Meta a été applaudi par certains pour avoir publié ses modèles Llama 2 destinés aux développeurs et aux universitaires. Mais tout le monde n’est pas content. Vendredi, des manifestants se sont tenus devant les bureaux de la méga-entreprise à San Francisco pour sensibiliser aux dangers et aux risques liés à la libération des poids des modèles, qui permet aux mécréants d’utiliser les modèles sans aucune protection supplémentaire.

    “La politique de publication de Meta pour les modèles d’IA frontières est fondamentalement dangereuse… Avant de publier des modèles encore plus avancés – qui peuvent avoir des capacités plus dangereuses entre les mains de mauvais acteurs – nous appelons Meta à prendre au sérieux la publication responsable et à mettre fin à une prolifération irréversible.” a déclaré le groupe de protestation dans un communiqué. La manifestation elle-même a été organisée sur le Facebook de Meta et très légèrement assisté.

    Un dirigeant d’Amazon confirme qu’Alexa peut utiliser votre voix pour la formation en IA

    L’autre jour, le directeur général d’Amazon, Dave Limp, a déclaré à Bloomberg TV qu’il estime que l’assistant numérique Alexa du géant du Web deviendra de plus en plus un service payant. Surtout, il a également déclaré qu’Alexa pourrait utiliser les conversations de certaines personnes avec le système d’IA pour former le grand modèle linguistique d’Amazon, Alexa LLM.

    “Les clients peuvent toujours accéder au même ensemble robuste d’outils et de contrôles de confidentialité qui leur permettent aujourd’hui de contrôler leur expérience Alexa”, a déclaré un porte-parole d’Amazon à NBC News. “Par exemple, les clients sauront toujours quand Alexa écoute leur demande car le voyant bleu s’allumera et une tonalité sonore optionnelle retentira.”

    Il est peut-être temps de vérifier et de modifier vos paramètres.

    Un laboratoire met en place une initiative de recherche pour étudier la sécurité dans l’IA

    Le laboratoire national d’Oak Ridge du ministère américain de l’Énergie a annoncé le lancement du Center for AI Security Research (CAISER) pour enquêter sur les attaques contradictoires contre les systèmes d’apprentissage automatique.

    Les chercheurs collaboreront avec le personnel d’autres agences, telles que la direction de l’information du laboratoire de recherche de l’armée de l’air et la direction des sciences et technologies du ministère de la Sécurité intérieure, pour évaluer et étudier les vulnérabilités de sécurité de l’IA.

    CAISER s’intéresse principalement aux attaques contradictoires et à la manière dont les modèles peuvent être exploités. Les mécréants peuvent empoisonner les systèmes en alimentant des données indésirables qui peuvent forcer les algorithmes à faire des prédictions incorrectes. Les attaques par injection rapide, par exemple, peuvent diriger un modèle de langage volumineux pour générer un texte inapproprié et offensant.

    En comprenant les impacts et en analysant les risques, on espère que CAISER pourra mieux informer les agences fédérales sur les logiciels et les capacités existants alors qu’elles envisagent d’adopter l’IA.

    “Nous sommes à la croisée des chemins. Les outils d’IA et les technologies basées sur l’IA sont intrinsèquement vulnérables et exploitables, ce qui peut entraîner des conséquences imprévues”, a déclaré Edmon Begoli, chef de la section Advanced Intelligent Systems de l’ORNL et directeur fondateur du CAISER, dans un communiqué.

    “Nous définissons un nouveau domaine de recherche sur la sécurité de l’IA et nous nous engageons dans une recherche et un développement intensifs de stratégies et de solutions d’atténuation contre les risques émergents de l’IA.”

    AWS lance la plateforme AI Bedrock

    AWS, l’unité cloud d’Amazon, a annoncé plus tôt que sa plate-forme Bedrock, qui héberge des modèles de base via des API permettant aux entreprises de se former et de fonctionner sur les ressources matérielles du géant du cloud, est désormais généralement disponible.

    Les développeurs peuvent désormais accéder à un certain nombre de modèles allant de Llama 2 de Meta à Titan Embeddings d’Amazon, qui traduit le texte en mappages vectoriels que les algorithmes d’IA doivent traiter ; les générateurs de texte Amazon Titan Express et Amazon Titan Lite ; et Amazon CodeWhisperer. AWS héberge également des modèles créés par d’autres sociétés, telles que AI21 Labs, Anthropic, Cohere et Stability AI.

    « Grâce à de nouvelles innovations puissantes, AWS offre davantage de sécurité, de choix et de performances à ses clients, tout en les aidant à aligner étroitement leur stratégie de données au sein de leur organisation, afin qu’ils puissent tirer le meilleur parti du potentiel de transformation de l’IA générative », a déclaré Swami Sivasubramanian, vice-président des données et de l’IA chez AWS.

    AWS a déclaré que des entreprises de divers secteurs utilisent les services d’IA générative de Bedrock, notamment la marque de vêtements de sport Adidas, le constructeur automobile BMW Group, LexisNexis Legal & Professional et l’organisation américaine de tournois de golf à but non lucratif PGA Tour. ®

    Source

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *