L’application Science of Love se transforme en haine pour le démarrage de l’apprentissage automatique en Corée après des chuchotements imprudents de données

  • FrançaisFrançais


  • En bref Une startup coréenne d’IA a été critiquée après avoir récupéré des messages privés de ses utilisateurs contenant des informations privées et sensibles pour former un chatbot.

    Les gens ont critiqué l’application Science of Love de Scatter Labs sur le Google Play Store à une note d’une étoile avec de mauvaises critiques sur le problème. L’application utilise l’apprentissage automatique pour analyser les textes échangés sur KakaoTalk, un service de messagerie populaire. Scatter Labs a rassemblé les conversations des gens pendant des années pour former son propre chatbot, connu sous le nom de Lee Luda.

    Lee Luda, cependant, a été temporairement fermé le mois dernier après avoir craché des discours de haine et des données personnelles privées. Le robot a qualifié les lesbiennes de dégoûtantes et a divulgué de vrais numéros de téléphone.

    De plus, la société a téléchargé les données d’entraînement de Lee Luda sur GitHub, exposant davantage les informations, selon le site d’informations en ligne coréen Pulse. Les données ont depuis été supprimées et les utilisateurs sont furieux que leurs messages aient été grattés.

    Scatter Labs n’a pas renvoyé nos demandes de commentaires.

    Méfiez-vous des bootcamps coûteux de codage IA

    Une personne prétendant être le chef de projet d’AI Fluency, une organisation qui vend ce qui ressemble à un cours d’apprentissage automatique pour débutants pour 1 280 $ (~ 926 £), voulait que nous donnions un «code de réduction» à Reg lecteurs. “Nous voulions offrir un rabais spécial de 485 $ pour tous les étudiants de Le registre», nous a dit le porte-parole de l’organisation, Matt Hanson, dans un e-mail cette semaine.« Le prix du cours était auparavant: 1280 $ – avec réduction: 695 $ (~ 502 £). »

    Un rapide coup d’œil sur le site Web devrait cependant déclencher l’alarme. Il existe peu d’informations sur les instructeurs qui sont censés être des anciens d’établissements prestigieux: MIT, Stanford University, Harvard University et Oxford University. Celui qui a conçu le site Web a également volé une image de ce qui ressemble à une classe Zoom dans un message public Medium.

    capture d'écran

    Pas un bon look. Cliquez pour agrandir. Source: maîtrise de l’IA

    Lorsque nous avons contacté Eugene Korsunskiy, qui est professeur adjoint d’ingénierie à l’Université de Dartmouth, représenté en haut à droite de l’image, il a déclaré qu’il n’avait jamais entendu parler de AI Fluency et ne lui avait pas donné la permission d’utiliser sa photo. La photo a maintenant été remplacée par une autre image de réunion générique tirée du site Web de Zoom.

    AI Fluency prétend exister depuis 2015, mais le site Web a été créé le 27 décembre 2020. Il n’y a pas non plus d’informations publiques qui prouvent que l’entreprise existe depuis si longtemps. Hanson était initialement désireux de discuter avec nous, mais après avoir posé des questions sur les instructeurs et l’entreprise, il est devenu silencieux.

    L’apprentissage automatique est un domaine difficile à aborder et attrayant compte tenu des salaires des ingénieurs. Les cours en ligne sont populaires, mais faites attention à ceux qui prétendent pouvoir vous mettre en contact avec des experts et vous rendre plus employable. Il faudra bien plus que quelques leçons pour y parvenir, surtout si vous êtes débutant.

    Les universités ont besoin de plus de puissance de calcul pour étudier des modèles de langage massifs comme GPT-3

    La capacité de GPT-3 à générer un langage raciste et sexiste ainsi que de fausses informations a alarmé les développeurs, d’autant plus qu’OpenAI cherche à commercialiser son outil de génération de texte.

    Quels impacts le modèle aura-t-il sur notre société une fois qu’il sera disponible? Des chercheurs d’OpenAI, du Stanford Institute for Human-Centered Artificial Intelligence et d’autres universités ont tenu une réunion pour discuter de la façon dont la technologie pourrait affecter des domaines tels que l’Internet et l’économie. La discussion a été condensée dans un document [PDF] sur arXiv.

    Les experts craignent que le modèle puisse automatiser certaines tâches et certains travaux impliquant la lecture et l’écriture, et il est possible que les rédacteurs de contenu ou les essais d’étudiants soient remplacés par du texte généré par la machine. Ils étaient également préoccupés par son potentiel à cracher d’énormes pans de faux textes sous forme de tweets, d’articles de presse ou de propagande difficile à vérifier.

    Consultez également cette conversation effrayante qu’un utilisateur de Reddit a prétendue provenir de GPT-3, où la machine parlerait des joies du meurtre. ®

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *