“Je n’ai pas compris que ChatGPT pouvait fabriquer des cas”

  • Français


  • L’IA en bref Les avocats faisant face à des sanctions légales d’un tribunal fédéral pour avoir déposé une plainte contenant de faux cas juridiques générés par ChatGPT, disent qu’ils se sentent dupés par le logiciel.

    Les avocats Steven Schwartz et Peter LoDuca représentant le cabinet d’avocats Levidow, Levidow & Oberman ont fait la une des journaux pour avoir soumis des documents judiciaires au tribunal du district sud de New York citant des affaires judiciaires constituées par ChatGPT.

    Le juge Kevin Castel réfléchit maintenant à l’opportunité d’imposer des sanctions à la paire. Lors d’une audience cette semaine, ils ont admis ne pas avoir vérifié les cas. “Je n’avais pas compris que ChatGPT pouvait fabriquer des cas”, a déclaré Schwartz, a rapporté AP. Pendant ce temps, son partenaire LoDuca a déclaré: “Il ne m’est jamais venu à l’esprit qu’il s’agissait d’un faux cas” et que l’erreur “fait mal [him] sans fin.”

    Les avocats poursuivaient une compagnie aérienne colombienne Avianca au nom d’un passager blessé à bord d’un vol en 2019, et se sont tournés vers ChatGPT pour trouver d’autres cas similaires. Le chatbot a ensuite généré une liste de faux cas qu’ils croyaient être vrais et les a inclus dans leur procès. « Pouvons-nous convenir que c’est du charabia juridique ? », a déclaré Castel.

    Les avocats, cependant, ont surestimé les capacités de la technologie sans comprendre comment cela fonctionne.

    Non-IA, le bon vieux “code traditionnel” aide à améliorer Bard

    Google a affirmé que la logique et les capacités de raisonnement de son chatbot IA Bard se sont améliorées grâce à une nouvelle technique appelée exécution de code implicite.

    Les grands modèles de langage (LLM) fonctionnent en prédisant les prochains mots probables dans une phrase donnée, ce qui signifie qu’ils peuvent être bons pour les tâches créatives ouvertes comme les poèmes, mais sont beaucoup moins performants pour résoudre de vrais problèmes.

    Google s’est efforcé de rendre Bard plus utile et a déclaré avoir mis en place une nouvelle méthode qui lui permet de mieux répondre aux problèmes mathématiques ou aux questions logiques avec plus de précision.

    La technique, décrite comme une exécution de code implicite, inspecte si l’invite d’un utilisateur est quelque chose qui peut être résolu par calcul. Le modèle utilise ensuite des méthodes d’apprentissage non automatiques pour générer du code et répondre à la question.

    “Avec cette dernière mise à jour, nous avons combiné les capacités des LLM et du code traditionnel pour aider à améliorer la précision des réponses de Bard. Grâce à l’exécution de code implicite, Bard identifie les invites qui pourraient bénéficier du code logique, l’écrit “sous le capot”, exécute et utilise le résultat pour générer une réponse plus précise », a-t-il déclaré cette semaine.

    “Jusqu’à présent, nous avons vu cette méthode améliorer d’environ 30% la précision des réponses de Bard aux problèmes de mots et de mathématiques basés sur le calcul dans nos ensembles de données de défi internes”, a-t-il ajouté.

    Bard devrait répondre avec plus de précision à des questions telles que “quels sont les facteurs premiers de 15683615 ?”. ou ‘calculer le taux de croissance de mon épargne’, mais ce n’est pas parfait et fera encore des erreurs.

    Cohere, une grande startup de modèles linguistiques, lève 270 millions de dollars en série C

    Cohere, une startup lancée il y a quatre ans peu de temps après la sortie d’OpenAI GPT-3, a annoncé qu’elle avait levé 270 millions de dollars lors de sa dernière ronde de financement.

    Le cycle a été mené par Inovia Capital et comprenait des sociétés comme Nvidia, Oracle et Salesforce Ventures. Cohere a commencé par créer un produit API pour ses grands modèles de langage afin d’aider les entreprises à automatiser les tâches de traitement du langage naturel dans une gamme de langues.

    “L’IA sera au cœur de la prochaine décennie de succès commerciaux”, a déclaré Aidan Gomez, PDG et co-fondateur, dans un communiqué. “Alors que l’enthousiasme suscité par l’IA générative se tourne vers des moyens d’accélérer les activités, les entreprises se tournent vers Cohere pour les positionner pour réussir dans une nouvelle ère technologique. La prochaine phase des produits et services d’IA révolutionnera les affaires, et nous sommes prêts à diriger le chemin.”

    La société a déclaré qu’elle travaillerait avec Salesforce Ventures pour faire progresser l’IA générative pour les entreprises, et LivePerson pour créer et déployer des LLM personnalisés qui sont plus flexibles et privés que les modèles existants.

    Le chien de garde néerlandais de la confidentialité préoccupé par ChatGPT envoie une lettre à OpenAI

    Des responsables de l’Autorité néerlandaise de protection des données ont envoyé une lettre à OpenAI pour mieux examiner les problèmes de confidentialité des données avec ChatGPT. Ils veulent savoir sur quelles données le modèle a été formé et comment l’entreprise stocke les données générées dans les conversations entre le chatbot et les utilisateurs.

    “La DPA est préoccupée par la manière dont les organisations qui utilisent l’intelligence artificielle dite” générative “traitent les informations personnelles”, a déclaré l’agence, a rapporté Reuters cette semaine. Le régulateur de la vie privée a déclaré qu’il “prendrait diverses mesures à l’avenir” et avait envoyé la lettre “dans un premier temps [in clearing] certaines choses sur ChatGPT.”

    Plusieurs groupes de surveillance de la vie privée dans l’Union européenne et au Canada ont exprimé des préoccupations similaires et étudient la technologie alors que les gouvernements s’attaquent aux problèmes de réglementation et de sécurité. La crainte est que ChatGPT puisse divulguer des informations sensibles que les gens souhaitent garder confidentielles, comme des numéros de téléphone ou des données personnelles. Cependant, il est également connu pour générer de fausses informations sur les personnes.

    Un homme, par exemple, a poursuivi OpenAI cette semaine après qu’un journaliste utilisant le logiciel a affirmé qu’il avait détourné de l’argent d’un groupe de défense des droits des armes à feu. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *