Un comédien et des romanciers poursuivent OpenAI pour avoir récupéré des livres

  • Français


  • En bref Les romanciers primés Paul Tremblay et Mona Awad, ainsi que la comédienne Sarah Silverman et les romanciers Christopher Golden et Richard Kadrey, ont poursuivi OpenAI et accusé le démarrage de former ChatGPT sur leurs livres sans consentement, violant les lois sur le droit d’auteur.

    Les poursuites, toutes deux déposées devant le tribunal du district nord de San Francisco, indiquent que ChatGPT génère des résumés précis de leurs livres et les a mis en évidence comme preuve que le logiciel est formé sur leur travail.

    “OpenAI a fait des copies des livres des demandeurs pendant le processus de formation des modèles de langage OpenAI sans la permission des demandeurs. Plus précisément, OpenAI a copié au moins le livre du demandeur Tremblay La cabane du bout du monde; et les livres du demandeur Awad 13 façons de regarder une grosse fille et Lapin“, selon des documents judiciaires [PDF] dans le premier costume.

    Dans le deuxième costume, Silverman et al [PDF], faire des déclarations similaires. Le trio tient également à déclarer que leurs livres, y compris le livre de Silverman, une autobiographie comique intitulée L’énurésie, contiennent certaines informations sur la gestion des droits d’auteur qui auraient été incluses dans les livres légitimes et protégés par le droit d’auteur. C’est la base du troisième chef d’accusation qu’ils allèguent contre OpenAI, une allégation selon laquelle il a enfreint le DCMA en supprimant les informations de gestion des droits d’auteur. La poursuite déclare : « À aucun moment, ChatGPT n’a reproduit les informations de gestion des droits d’auteur que les demandeurs ont incluses dans leurs œuvres publiées.

    OpenAI entraîne ses grands modèles de langage en grattant du texte sur Internet, et bien qu’il n’ait pas révélé exactement quelles ressources il a englouti, la startup a admis avoir entraîné ses systèmes sur des centaines de milliers de livres protégés par le droit d’auteur et stockés sur des sites Web comme Sci-Hub ou Bibliotik.

    Tous les auteurs pensent que leurs livres ont été ingérés par ChatGPT sans leur permission, et qu’OpenAI profite de leur travail sans attribution. Ils ont lancé un recours collectif pour que d’autres auteurs se joignent à eux et demandent des dommages-intérêts compensatoires et des injonctions permanentes pour empêcher OpenAI de poursuivre ses actions.

    Adobe interdit aux employés d’utiliser des outils d’IA génératifs tiers

    Le géant du logiciel Adobe a interdit aux employés d’utiliser leurs adresses e-mail privées ou leurs cartes de crédit d’entreprise pour s’inscrire et payer des produits et services d’apprentissage automatique.

    La directrice de l’information, Cindy Stoddard, a averti le personnel de protéger les données du géant de la technologie et de ne pas utiliser les outils d’IA générative d’une manière qui pourrait nuire à son entreprise, ses clients ou sa main-d’œuvre, Interne du milieu des affaires signalé.

    Adobe n’a pas purement et simplement interdit les applications tierces telles que ChatGPT, mais a mis en place des restrictions strictes sur ce qui est et n’est pas autorisé sur ces systèmes. Les employés ne doivent pas révéler leurs invites de saisie, télécharger des données ou du code Adobe privés pour générer des brouillons d’e-mails, résumer des documents ou corriger des bogues logiciels.

    Ils doivent également s’assurer de ne pas utiliser le contenu de leurs conversations comme données de formation. De plus, ils ne peuvent pas s’inscrire pour utiliser ces outils avec leurs propres adresses e-mail privées ou payer un abonnement avec leurs cartes de crédit d’entreprise (ou payer avec une carte personnelle et la récupérer en tant que dépense).

    Adobe rejoint une liste croissante d’entreprises, dont Amazon, Samsung et Apple, qui ont restreint ou interdit aux employés d’utiliser des applications d’IA génératives en raison de problèmes de confidentialité des données.

    Le département américain de la Défense teste les LLM

    Le Pentagone teste les capacités de cinq grands modèles de langage pour résoudre des tâches textuelles qui pourraient un jour aider à la prise de décision et au combat.

    Les modèles sont alimentés par des documents top secrets et invités à planifier et à résoudre des scénarios hypothétiques, comme une crise mondiale. Certaines tâches, comme la demande d’informations à des unités militaires spécifiques, peuvent parfois prendre des heures ou des jours au personnel, mais les grands modèles de langage peuvent fournir des données en quelques minutes.

    Un test aurait effectué une demande en seulement dix minutes. Mais la technologie est notoirement délicate, ses performances peuvent dépendre de la manière dont la demande est formulée et elle est susceptible de générer de fausses informations.

    “Cela ne veut pas dire qu’il est prêt pour les heures de grande écoute en ce moment. Mais nous l’avons fait en direct. Nous l’avons fait avec des données de niveau secret”, a déclaré Matthew Strohmeyer, un colonel de l’US Air Force, qui a déclaré à Bloomberg que l’armée pourrait déployer un grand langage. bientôt des modèles.

    Le Pentagone n’a pas révélé quels modèles ils testaient. Scale AI, cependant, aurait révélé que l’un d’entre eux est son système Donovan axé sur la défense. D’autres systèmes potentiels pourraient être les modèles d’OpenAI proposés via la plate-forme Azure Government de Microsoft, ou d’autres outils construits par des sous-traitants de la défense comme Palantir ou Anduril. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *