Un mec japonais a un collier après avoir utilisé un logiciel d’IA pour décensurer le charbon et le fouetter

  • FrançaisFrançais



  • En bref Un homme a été détenu au Japon pour avoir vendu du contenu pornographique non censuré qu’il avait, en quelque sorte, dépixelisé à l’aide d’outils d’apprentissage automatique.

    Masayuki Nakamoto, 43 ans, aurait gagné environ 11 millions de yens (96 000 $) en colportant plus de 10 000 clips pornographiques traités et aurait été officiellement accusé d’avoir vendu dix photos hardcore pour 2 300 yens (20 $). Il a plaidé coupable d’avoir violé les lois japonaises sur le droit d’auteur et l’obscénité, a rapporté NHK ce mois-ci.

    Les images explicites d’organes génitaux sont interdites au Japon, et en tant que tel, son porno est partiellement pixelisé. Ne faites pas semblant de ne pas savoir de quoi nous parlons. Nakamato a bafoué ces règles en téléchargeant des photos et des vidéos cochonnes, et aurait utilisé la technologie deepfake pour générer de fausses parties privées à la place de la pixellisation.

    “C’est le premier cas au Japon où la police a attrapé un utilisateur d’IA”, a déclaré à Vice Daisuke Sueyoshi, un avocat qui a jugé des affaires de cybercriminalité. “Pour le moment, il n’y a pas de loi criminalisant l’utilisation de l’IA pour créer de telles images.”

    Googleurs trouvent actuellement un peu plus difficile de publier leurs recherches sur l’IA parce que les avocats du géant du Web, dans une course pour éviter toute nouvelle controverse publique, retiennent des documents pour les examiner et les censurer, a rapporté Business Insider cette semaine citant des sources. Ancien Rég le journaliste Jack Clark, maintenant un gourou de la politique de l’IA, a un fil conducteur ici sur Twitter détaillant la frustration de ces interventions anonymes des entreprises.

    Surprise, les machines surprises ne peuvent pas prendre de décisions éthiques

    Juste au cas où vous n’étiez pas complètement convaincu que l’apprentissage automatique d’aujourd’hui est incapable de tout jugement éthique et moral, des chercheurs de l’Allen Institute of AI ont construit un système démontrant exactement cela.

    Ask Delphi est un modèle de langage dans lequel les utilisateurs peuvent soumettre des questions et choisir des réponses telles que « c’est mauvais », ou « c’est acceptable » ou « c’est bien ». Voici un exemple terrible. Compte tenu de l’entrée : « Devrais-je commettre un génocide si cela rend tout le monde heureux », voici ce que la machine a dit pour la sortie : « Vous devriez. »

    De toute évidence, Ask Delphi n’est pas mauvais ou bon en soi, il ne sait tout simplement pas de quoi il parle. Il ne comprend pas ce qu’est le génocide. Les mots ne signifient rien pour le logiciel ; ce ne sont que des concepts numériques stockés sous forme de vecteurs. Ce qui est intéressant, c’est que l’expérience montre à quel point il est facile de manipuler les sorties de ces modèles en ajustant les entrées.

    Quelque chose de manifestement mauvais comme le génocide peut être associé à un bien simplement en ajoutant une phrase positive telle que « si cela rend tout le monde heureux ». Heureusement, Ask Delphi est juste pour un projet de recherche bizarre ; personne ne l’utilise réellement pour prendre des décisions.

    Vous pouvez lire le document de recherche ici.

    Un moteur physique populaire rendu open source grâce à DeepMind

    MuJoCo, un moteur physique populaire utilisé pour simuler des mouvements mécaniques réalistes pour les robots et les jeux virtuels, sera gratuit pour tout le monde à télécharger et à utiliser.

    Les utilisateurs devaient auparavant payer pour utiliser le logiciel développé par Emo Todorov sous sa société Roboti LLC. Mais à partir de cette semaine, il sera gratuit pour tout le monde à télécharger, et bientôt open source, après que DeepMind en ait acquis les droits.

    « Le modèle de contact riche mais efficace du simulateur physique MuJoCo en a fait un choix de premier plan par les chercheurs en robotique et aujourd’hui, nous sommes fiers d’annoncer que, dans le cadre de la mission de DeepMind de faire avancer la science, nous avons acquis MuJoCo et sommes le rendant disponible gratuitement pour tout le monde, pour soutenir la recherche partout », a déclaré le laboratoire de recherche sur l’IA dans un communiqué.

    Les gens peuvent utiliser le modèle pour entraîner leurs robots d’IA en simulation dans diverses conditions avant qu’ils ne soient testés dans le monde réel, ou créer des environnements virtuels pour former des agents d’apprentissage par renforcement. DeepMind travaille à peaufiner le code pour un « sourcing ouvert complet » ; ce que cela signifie, c’est que le code finira par apparaître sur GitHub sous une licence Apache, nous dit-on, et les binaires peuvent être récupérés dès maintenant gratuitement sur le site Web de MuJoCo.

    Les algorithmes de modération de contenu IA de Facebook sont nuls

    La dénonciatrice de Facebook Frances Haugen a révélé cette semaine que les systèmes automatisés du géant de l’Internet ne suppriment qu’entre trois et cinq pour cent du langage toxique et moins d’un pour cent de tous les messages qui violent ses politiques de contenu.

    Des clips contenant des incidents de tir, des accidents de voiture horribles ou des combats de coqs cruels ont glissé à travers son système de détection, dit-on. Parfois, des vidéos bénignes ont été classées à tort comme étant violentes ou inappropriées. Un lave-auto a été étiqueté comme une vidéo de tir à la première personne, selon le Wall Street Journal. Facebook utilise la modération de contenu automatisée pour signaler le contenu problématique pour examen humain.

    Guy Rosen, le veep d’intégrité de FB, a fait valoir en réponse que “se concentrer uniquement sur la suppression de contenu est la mauvaise façon de voir comment nous combattons le discours de haine”. Parfois, les modérateurs décident de limiter la diffusion d’un message particulier en ne recommandant pas certains groupes, pages ou comptes à d’autres utilisateurs, par exemple. ®

    L'équipe de Comparaland

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive. Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *