Les personnes qui parlent régulièrement aux chatbots IA commencent souvent à croire qu’ils sont sensibles, déclare le PDG

  • FrançaisFrançais



  • En bref De nombreuses personnes commencent à croire qu’elles interagissent avec quelque chose de sensible lorsqu’elles parlent à des chatbots IA, selon le PDG de Replika, une application qui permet aux utilisateurs de concevoir leurs propres compagnons virtuels.

    Les gens peuvent personnaliser l’apparence de leurs chatbots et payer pour des fonctionnalités supplémentaires comme certains traits de personnalité sur Replika. Des millions de personnes ont téléchargé l’application et beaucoup discutent régulièrement avec leurs robots inventés. Certains commencent même à penser que leurs amis numériques sont de véritables entités sensibles.

    “Nous ne parlons pas de fous ou de personnes qui ont des hallucinations ou des délires”, a déclaré à Reuters la fondatrice et PDG de la société, Eugenia Kuyda. “Ils parlent à l’IA et c’est l’expérience qu’ils ont.”

    Un ingénieur de Google a fait la une des journaux le mois dernier lorsqu’il a déclaré qu’il pensait que l’un des modèles linguistiques de l’entreprise était conscient. Blake Lemoine a été largement ridiculisé, mais il ne semble pas être le seul à anthropomorphiser l’IA.

    Cependant, ces systèmes ne sont pas sensibles et trompent les humains en leur faisant croire qu’ils ont une certaine intelligence. Ils imitent le langage et le régurgitent un peu au hasard sans avoir aucune compréhension du langage ou du monde qu’ils décrivent.

    Pourtant, Kuyda a déclaré que les humains peuvent être influencés par la technologie.

    “Nous devons comprendre que [this] existe, tout comme les gens croient aux fantômes », a déclaré Kuyda. « Les gens établissent des relations et croient en quelque chose.

    L’UE devrait interdire les détecteurs de mensonges basés sur l’IA, selon des militants

    La loi sur l’IA de l’Union européenne, une proposition visant à réglementer la technologie, est toujours en débat et certains experts demandent l’interdiction des détecteurs de mensonges automatisés.

    Les entreprises privées fournissent la technologie aux responsables gouvernementaux pour qu’ils l’utilisent aux frontières. Les algorithmes d’IA détectent et analysent des éléments tels que le mouvement des yeux, l’expression faciale et le ton d’une personne pour essayer de discerner si quelqu’un ne dit pas la vérité. Mais les militants et les experts juridiques estiment qu’il devrait être interdit dans l’UE en vertu de la prochaine loi sur l’IA.

    “Vous devez prouver que vous êtes un réfugié, et vous êtes supposé être un menteur sauf preuve du contraire”, a déclaré à Wired Petra Molnar, directrice associée du Refugee Law Lab à but non lucratif. “Cette logique sous-tend tout. Elle sous-tend les détecteurs de mensonges IA, et elle sous-tend plus de surveillance et de refoulement aux frontières.”

    Essayer de détecter si quelqu’un pourrait mentir en utilisant des indices visuels et physiques n’est pas exactement une science. Les tests polygraphiques standard sont fragiles, et il n’est pas clair que l’utilisation de méthodes plus automatisées signifie nécessairement qu’il est plus précis. Utiliser une technologie aussi risquée sur des personnes vulnérables comme les réfugiés n’est pas idéal.

    L’IA peut-elle vraiment dire quel âge vous avez l’air ?

    Surprise, surprise – Les algorithmes d’IA conçus pour prédire l’âge d’une personne à partir d’images ne sont pas toujours précis.

    Dans une tentative de sévir contre les jeunes utilisateurs qui mentent sur leur âge sur les plateformes de médias sociaux, Meta a annoncé qu’il travaillait avec Yoti, une startup de vision par ordinateur, pour vérifier l’âge des gens. Ceux qui modifient manuellement leur date de naissance pour s’inscrire comme ayant plus de 18 ans ont la possibilité de télécharger un selfie vidéo, et la technologie de Yoti est ensuite utilisée pour prédire s’ils ont l’air suffisamment matures.

    Mais ses algorithmes ne sont pas toujours précis. Les journalistes de CNN, qui ont testé une démo en ligne d’une version différente du logiciel sur leur propre visage, ont constaté que les résultats étaient aléatoires. Les algorithmes de Yoti ont prédit une tranche d’âge cible correcte pour certains, mais dans un cas, ils étaient décalés de plusieurs années – prédisant que quelqu’un avait l’air d’avoir entre 17 et 21 ans alors qu’il était en fait dans la mi-trentaine.

    Le système analysant les vidéos des utilisateurs de Meta aurait plus de mal à estimer l’âge des adolescents de 13 à 17 ans qui ont des tons de peau plus foncés. Il est difficile pour les humains de deviner l’âge de quelqu’un simplement en le regardant, et les machines ne s’en sortent probablement pas beaucoup mieux. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.