La police veut que vos photos d’enfance heureuse entraînent l’IA à détecter la maltraitance des enfants

  • Français


  • La police fédérale australienne et l’Université Monash demandent aux internautes d’envoyer des clichés d’eux-mêmes plus jeunes pour former un algorithme d’apprentissage automatique afin de repérer la maltraitance des enfants sur les photographies.

    Les chercheurs cherchent à collecter des images de personnes âgées de 17 ans et moins dans des scénarios sûrs ; ils ne veulent pas de nudité, même si c’est une image relativement anodine comme un enfant qui prend un bain. La campagne de crowdsourcing, baptisée My Pictures Matter, est ouverte aux personnes âgées de 18 ans et plus, qui peuvent consentir à ce que leurs photographies soient utilisées à des fins de recherche.

    Toutes les images seront rassemblées dans un ensemble de données dans le but de former un modèle d’IA pour faire la différence entre un mineur dans un environnement normal et une situation d’exploitation et dangereuse. Le logiciel pourrait, en théorie, aider les forces de l’ordre à mieux identifier automatiquement et rapidement le matériel d’exploitation sexuelle d’enfants (ou CSAM) parmi des milliers et des milliers de photographies faisant l’objet d’une enquête, évitant ainsi que des analystes humains inspectent chaque cliché.

    L’examen de ce matériel horrible peut être un processus lent

    Janis Dalins, agent principal de la police fédérale australienne, a déclaré que l’IA pourrait potentiellement aider à identifier les victimes et à signaler des éléments illégaux inconnus auparavant des agents.

    “En 2021, le Centre australien de lutte contre l’exploitation des enfants dirigé par l’AFP a reçu plus de 33 000 signalements d’exploitation d’enfants en ligne et chaque signalement peut contenir de gros volumes d’images et de vidéos d’enfants agressés ou exploités sexuellement pour la gratification des délinquants”, a-t-il déclaré. cette semaine.

    Dalins est également codirecteur du laboratoire AiLECS, une collaboration de recherche entre des universitaires de la faculté des technologies de l’information de Monash et des flics de l’AFP.

    “L’examen de ce matériel horrible peut être un processus lent et l’exposition constante peut causer une détresse psychologique importante aux enquêteurs”, a-t-il ajouté. “Les initiatives d’AiLECS Lab soutiendront les policiers et les enfants que nous essayons de protéger ; et les chercheurs ont pensé à une manière innovante de développer de manière éthique la technologie derrière de telles initiatives.”

    Le moyen le plus simple de compiler un grand ensemble de données d’images est de gratter l’Internet ouvert. Mais, comme l’ont montré certains des derniers modèles d’IA, tels que DALL·E 2 d’OpenAI et Imagen de Google, la qualité de ces données est difficile à contrôler. Des images biaisées ou inappropriées peuvent se glisser dans l’ensemble de données, rendant les modèles problématiques et potentiellement moins efficaces.

    Au lieu de cela, l’équipe d’AiLECS pense que sa campagne de crowdsourcing offre un moyen plus simple et plus éthique de collecter des photographies d’enfants. “Pour développer une IA capable d’identifier des images d’exploitation, nous avons besoin d’un très grand nombre de photographies d’enfants dans des contextes” sûrs “quotidiens qui peuvent entraîner et évaluer les modèles d’IA destinés à lutter contre l’exploitation des enfants”, a déclaré Campbell Wilson, codirecteur d’AiLECS et un professeur agrégé à l’Université Monash, a déclaré.

    En obtenant des photographies d’adultes, par le biais d’un consentement éclairé, nous essayons de créer des technologies éthiquement responsables et transparentes

    “Mais l’approvisionnement de ces images sur Internet est problématique lorsqu’il n’y a aucun moyen de savoir si les enfants sur ces images ont réellement consenti à ce que leurs photos soient téléchargées ou utilisées pour la recherche. En obtenant des photos d’adultes, grâce à un consentement éclairé, nous essayons pour construire des technologies éthiquement responsables et transparentes.”

    Les gens n’ont qu’à envoyer leurs photos personnelles et une adresse e-mail dans le cadre de la campagne. Nina Lewis, chef de projet et chercheuse au laboratoire, a confirmé qu’il n’allait pas enregistrer d’autres types d’informations personnelles. Les adresses e-mail seront stockées dans une base de données séparée, nous dit-on.

    “Les images et les données associées ne contiendront aucune information d’identification, garantissant que les images utilisées par les chercheurs ne peuvent révéler aucune information personnelle sur les personnes représentées”, a-t-elle déclaré. Les participants recevront des mises à jour à chaque étape du projet et pourront demander à retirer leurs images de l’ensemble de données s’ils le souhaitent.

    Les nobles objectifs du projet ne sont pas techniquement impossibles et sont très ambitieux, nous avons donc hâte de voir les résultats, compte tenu des défis auxquels sont confrontés les systèmes de reconnaissance d’images, tels que les biais et les attaques contradictoires, entre autres limitations.

    Le registre a demandé à l’Université Monash de plus amples détails. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *