J’ai été licencié, dit un ingénieur qui a affirmé que le chatbot de Google était sensible

  • FrançaisFrançais



  • En bref Google aurait licencié Blake Lemoine, l’ingénieur qui a été mis en congé administratif après avoir insisté sur le fait que le chatbot LaMDA du géant du web était sensible.

    Lemoine n’a pas eu d’ennuis pour avoir tenu son opinion controversée et sourcilleuse sur le modèle. Au lieu de cela, il a été puni pour avoir enfreint les politiques de confidentialité de Google. Il aurait invité un avocat à évaluer les droits légaux potentiels de LaMDA et aurait parlé à un représentant de la maison affirmant que Google était contraire à l’éthique.

    Un porte-parole de Google a déclaré à la newsletter Big Technology qu’il avait décidé de mettre fin à son emploi car Lemoine continuait de violer les “politiques d’emploi et de sécurité des données” mettant en péril les secrets commerciaux.

    “Si un employé partage des préoccupations concernant notre travail, comme l’a fait Blake, nous les examinons en profondeur. Nous avons constaté que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte. qui nous aide à innover de manière responsable », a déclaré le porte-parole.

    “Il est donc regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits. Nous poursuivrons notre développement minutieux de modèles linguistiques, et nous souhaitons bonne chance à Blake. “

    De nombreux experts de Google, du milieu universitaire et de l’industrie ont mis en doute la sensibilité de LaMDA ou de tout chatbot AI existant. Les modèles de langage apprennent les relations mathématiques entre les mots et sont bons pour imiter le langage humain sans avoir une réelle compréhension. Aucun d’entre eux n’est vraiment intelligent, encore moins conscient.

    Pourquoi les développeurs ne peuvent pas exécuter de code IA open source

    Quel est l’intérêt de publier le code des modèles d’apprentissage automatique si les développeurs n’ont pas les ressources nécessaires pour l’exécuter ?

    Les logiciels d’IA sont notoirement difficiles à lancer et à essayer par vous-même, même lorsqu’ils sont open source. Des éléments de la source sont omis ou les ensembles de données requis pour former le modèle ne sont pas disponibles. Parfois, ces parties sont accessibles, mais les développeurs n’ont pas la puissance de calcul pour manier des systèmes aussi volumineux.

    Prenez le transformateur ouvert pré-entraîné de Meta, par exemple. La plus grande version du modèle de langage contient 175 milliards de paramètres. Même si le géant de la publicité a publié son code, peu de gens auront suffisamment de puces sous la main pour former et utiliser le modèle à partir de zéro, a noté Matt Asay, qui dirige le marketing partenaire chez MongoDB, à titre personnel.

    “La clé est de fournir un accès suffisant aux chercheurs pour pouvoir reproduire les succès et les échecs du fonctionnement d’un modèle d’IA particulier… En tant qu’entreprises et individus, notre objectif devrait être d’ouvrir l’accès aux logiciels de manière à profiter à nos clients et à des tiers. développeurs tiers pour favoriser l’accès et la compréhension au lieu d’essayer de moderniser un concept vieux de plusieurs décennies d’open source vers le cloud », a-t-il expliqué.

    Dall-E d’OpenAI entre en mode bêta

    Le modèle commercial de génération de texte en image d’OpenAI, DALL·E 2, est ouvert à un million de personnes supplémentaires qui ont rejoint sa liste d’attente.

    L’accès était auparavant limité à ceux qui étaient des artistes, des chercheurs et des développeurs sélectionnés, car OpenAI voulait tester son système avant la sortie commerciale complète. Les gens utilisent l’outil pour générer toutes sortes d’images pour créer des mèmes Internet, des bandes dessinées ou de l’art numérique.

    Les utilisateurs recevront 50 crédits gratuits au cours de leur premier mois d’utilisation et 15 crédits gratuits tous les mois suivants. Chaque crédit peut être utilisé pour générer une génération d’invite Dall-E originale, et ils obtiendront quatre images en sortie au lieu des six précédentes. La modification des invites de texte existantes renverra trois images. S’ils veulent en générer plus, ils devront payer 15 $ pour obtenir 115 crédits supplémentaires pour 460 images supplémentaires.

    Ils pourront également commercialiser toutes les images qu’ils génèrent à l’aide du modèle, ce qui signifie que les créateurs ont le droit de vendre et d’imprimer leurs images pour des marchandises, etc. “Nous sommes ravis de voir ce que les gens créent avec DALL·E et attendons avec impatience les commentaires des utilisateurs au cours de cette période bêta”, a déclaré le laboratoire de recherche cette semaine.

    Espionner les enfants avec la reconnaissance faciale

    Le service commercial controversé de reconnaissance faciale en ligne PimEyes peut être utilisé pour rechercher des images “potentiellement explicites” d’enfants.

    PimEyes permet à quiconque de télécharger une photo, il recherche les correspondances potentielles et renvoie les images et leurs URL correspondantes. Commercialisé comme un outil de protection de la vie privée, où les utilisateurs peuvent voir où des photos d’eux-mêmes ont été publiées sur Internet, le service a déclaré qu’il avait aidé à lutter contre des problèmes tels que le revenge porn.

    Mais il y a aussi un côté sombre. N’importe qui peut utiliser le site Web pour rechercher des photos de qui il aime, même des enfants. Une enquête de The Intercept a révélé qu’il était facile de trouver des photos de jeunes, et certaines de ces images ont même été qualifiées de “potentiellement explicites”. De fausses images d’enfants générées par l’IA ont été utilisées dans l’expérience, et PimEyes a toujours renvoyé des correspondances, ce qui suggère que son logiciel n’est probablement pas très précis.

    “Le fait que PimEyes n’ait pas de garanties en place pour les enfants et ne sait apparemment pas comment fournir des garanties aux enfants ne fait que souligner les risques de ce type de service de reconnaissance faciale”, Jeramie Scott, directeur du projet de surveillance de la surveillance à l’Electronic Privacy Information Center, a été cité comme disant. “Participer en public, que ce soit en ligne ou hors ligne, ne devrait pas signifier vous soumettre à des services envahissant la vie privée comme PimEyes.”

    Les outils d’écriture basés sur l’IA aident les auteurs indépendants à publier plus de livres

    La création de contenu est souvent une entreprise difficile. Vous devez proposer fréquemment du nouveau matériel pour conserver et développer votre audience.

    Un écrivain de fiction indépendant, qui publie son travail sur la plate-forme Kindle d’Amazon sous le nom de plume Leanne Leeds, a décrit les pouvoirs et les limites de l’utilisation d’un outil de génération de texte alimenté par GPT-3 en tant que partenaire d’écriture.

    En introduisant des phrases dans un logiciel nommé Sudowrite, des écrivains comme Leeds peuvent récupérer des passages de texte générés automatiquement ; il agit comme une saisie semi-automatique plus intelligente. Leeds a déclaré à The Verge que sa productivité avait augmenté de plus de 20 % en l’utilisant pour rédiger sa prose. Elle édite les sorties du logiciel et insère les paragraphes dans ses livres. Sudowrite l’aide à écrire des livres à un rythme plus rapide pour garder les lecteurs plus intéressés.

    Mais les écrivains sont déchirés par l’utilisation de l’IA. Certains pensent que cela va à l’encontre de la créativité et de la magie de la littérature, tandis que d’autres voient son potentiel pour la narration. Les auteurs devraient-ils divulguer que leurs livres ont été écrits à l’aide d’algorithmes ? Et plus important encore, ce gribouillis généré automatiquement est-il utile ?

    À l’heure actuelle, les machines ne sont pas assez bonnes et nécessitent une édition pour empêcher les récits et les intrigues de dérailler. Leeds pense que des outils comme Sudowrite deviendront un jour assez bons pour écrire de la fiction générique. “Je pense que c’est le vrai danger, que vous puissiez faire ça et que plus rien ne soit original. Tout n’est qu’une copie de quelque chose d’autre”, a-t-elle déclaré. “Le problème, c’est que c’est ce que les lecteurs aiment.” ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.