Utilisateur non professionnel ? Microsoft peut stocker vos chats Bing • Le registre

  • Français


  • Microsoft interdit aux utilisateurs de faire de l’ingénierie inverse ou de récolter des données à partir de son logiciel d’IA pour former ou améliorer d’autres modèles, et stockera les entrées transmises à ses produits ainsi que toute sortie générée.

    Les détails sont apparus alors que les entreprises sont confrontées à de nouveaux défis avec la montée de l’IA générative. Les gens veulent savoir ce que font les entreprises avec les informations fournies par les utilisateurs. Et les utilisateurs sont également curieux de savoir ce qu’ils peuvent faire avec le contenu généré par l’IA. Microsoft aborde ces problèmes dans une nouvelle clause intitulée “AI Services” dans ses conditions de service.

    Les cinq nouvelles politiques, qui ont été introduites le 30 juillet et entreront en vigueur le 30 septembre, stipulent que :

    • Ingénierie inverse. Vous ne pouvez pas utiliser les services d’IA pour découvrir les composants sous-jacents des modèles, algorithmes et systèmes. Par exemple, vous ne pouvez pas essayer de déterminer et de supprimer les poids des modèles.
    • Extraction de données. Sauf autorisation explicite, vous ne pouvez pas utiliser de méthodes de grattage Web, de collecte Web ou d’extraction de données Web pour extraire des données des services d’intelligence artificielle.
    • Limites d’utilisation des données des Services d’IA. Vous ne pouvez pas utiliser les services d’IA, ou les données des services d’IA, pour créer, former ou améliorer (directement ou indirectement) tout autre service d’IA.
    • Utilisation de votre contenu. Dans le cadre de la fourniture des services d’intelligence artificielle, Microsoft traitera et stockera vos entrées dans le service ainsi que la sortie du service, à des fins de surveillance et de prévention des utilisations ou des sorties abusives ou nuisibles du service.
    • Revendications de tiers. Vous êtes seul responsable de répondre à toute réclamation de tiers concernant votre utilisation des services d’IA conformément aux lois applicables (y compris, mais sans s’y limiter, la violation du droit d’auteur ou d’autres réclamations relatives à la sortie de contenu pendant votre utilisation des services d’IA).

    Dans certains cas, il est facile de regarder sous le capot de certains produits d’IA de Microsoft. Lorsqu’il a lancé son chatbot Bing alimenté par l’IA, par exemple, les utilisateurs ont découvert l’invite utilisée pour façonner ses comportements, qui a révélé son nom de code secret “Sydney”. Les développeurs ont essayé de fouiller le sous-jacent code pour avoir une meilleure idée de la façon dont il génère également du texte. Tout cela est maintenant techniquement interdit en vertu des nouvelles politiques.

    Des règles empêchant les développeurs d’utiliser les données générées par ses modèles d’IA pour améliorer et former d’autres systèmes ont également été adoptées par d’autres sociétés comme Meta, Google, OpenAI et Anthropic. Cependant, il n’est pas clair dans quelle mesure cela peut être appliqué, d’autant plus que de plus en plus de textes sur Internet sont écrits par des machines, et ils utilisent tous ces ressources pour former leurs propres modèles.

    Un porte-parole de Microsoft a refusé de commenter la durée pendant laquelle la société prévoit de stocker les entrées des utilisateurs dans son logiciel.

    “Nous mettons régulièrement à jour nos conditions d’utilisation pour mieux refléter nos produits et services. Notre dernière mise à jour du contrat de services Microsoft inclut l’ajout d’un langage reflétant l’intelligence artificielle dans nos services et son utilisation appropriée par les clients”, nous a déclaré le représentant dans une déclaration.

    Cependant, Microsoft a précédemment déclaré qu’il n’enregistrait pas les conversations ni n’utilisait ces données pour former ses modèles d’IA pour son mode Bing Enterprise Chat. Les politiques sont un peu plus obscures pour son copilote Microsoft 365, bien qu’il ne semble pas utiliser les données client ou les invites de formation, il stocke des informations.

    “[Copilot] peut générer des réponses ancrées dans le contenu professionnel du client, tel que des documents utilisateur, des e-mails, un calendrier, des chats, des réunions, des contacts et d’autres données professionnelles. Copilot combine ce contenu avec le contexte de travail de l’utilisateur, comme la réunion à laquelle un utilisateur participe actuellement, les échanges d’e-mails que l’utilisateur a eus sur un sujet ou les conversations de chat que l’utilisateur a eues la semaine dernière. Copilot utilise cette combinaison de contenu et de contexte pour fournir des réponses précises, pertinentes et contextuelles”, a-t-il déclaré.

    En bref, faites attention à ce que vous tapez dans Bing si vous n’êtes pas un utilisateur d’entreprise et que vous ne voulez pas que Microsoft stocke vos invites ou conversations que vous avez avec le chatbot. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *