Quelqu’un pour surveiller l’IA et la garder honnête – et ce n’est pas le public! –

  • FrançaisFrançais


  • Le public n’a pas besoin de savoir comment fonctionne l’intelligence artificielle pour lui faire confiance. Ils ont juste besoin de savoir qu’une personne possédant les compétences nécessaires examine l’IA et a le pouvoir d’imposer des sanctions si elle cause ou est susceptible de causer un préjudice.

    Le Dr Bran Knowles, maître de conférences en science des données à l’Université de Lancaster, déclare: «Je suis certain que le public est incapable de déterminer la fiabilité des IA individuelles … mais nous n’avons pas besoin d’eux pour le faire. responsabilité de garder AI honnête. “

    Le Dr Knowles présente (8 mars) un document de recherche «La sanction de l’autorité: promouvoir la confiance du public dans l’IA» à la Conférence ACM sur l’équité, la responsabilité et la transparence (ACM FAccT).

    L’article est co-écrit par John T. Richards, du TJ Watson Research Center d’IBM, Yorktown Heights, New York.

    Le grand public, note le journal, se méfie souvent de l’IA, qui découle à la fois de la façon dont l’IA a été représentée au fil des ans et d’une prise de conscience croissante du fait qu’il y a peu de surveillance significative de celle-ci.

    Les auteurs soutiennent qu’une plus grande transparence et des explications plus accessibles sur le fonctionnement des systèmes d’IA, perçues comme un moyen d’accroître la confiance, ne répondent pas aux préoccupations du public.

    Selon eux, un “ écosystème réglementaire ” est le seul moyen pour l’IA de rendre des comptes au public de manière significative, gagnant sa confiance.

    «Le public ne se préoccupe pas systématiquement de la fiabilité de la nourriture, de l’aviation et des produits pharmaceutiques parce qu’il est convaincu qu’il existe un système qui réglemente ces choses et punit toute violation des protocoles de sécurité», déclare le Dr Richards.

    Et, ajoute le Dr Knowles: “Plutôt que de demander au public d’acquérir des compétences pour prendre des décisions éclairées sur les IA qui méritent leur confiance, le public a besoin des mêmes garanties que toute IA qu’il pourrait rencontrer ne leur causera pas de préjudice.”

    Elle insiste sur le rôle essentiel de la documentation sur l’IA dans la mise en place de cet écosystème réglementaire fiable. À titre d’exemple, le document traite du travail d’IBM sur les fiches d’information sur l’IA, une documentation conçue pour capturer des faits clés concernant le développement et les tests d’une IA.

    Mais, si une telle documentation peut fournir les informations nécessaires aux auditeurs internes et aux régulateurs externes pour évaluer la conformité avec les cadres émergents pour une IA digne de confiance, le Dr Knowles met en garde contre le fait de s’y fier pour favoriser directement la confiance du public.

    «Si nous ne parvenons pas à reconnaître que le fardeau de superviser la fiabilité de l’IA doit incomber à des régulateurs hautement qualifiés, alors il y a de fortes chances que l’avenir de la documentation de l’IA soit encore un autre mécanisme de consentement de type termes et conditions – quelque chose que personne ne lit vraiment ou comprend », dit-elle.

    Le document demande que la documentation sur l’IA soit correctement comprise comme un moyen de permettre aux spécialistes d’évaluer la fiabilité.

    «L’IA a des conséquences matérielles dans notre monde qui affectent de vraies personnes; et nous avons besoin d’une véritable responsabilité pour nous assurer que l’IA qui imprègne notre monde contribue à rendre ce monde meilleur», déclare le Dr Knowles.

    ACM FAccT est une conférence informatique qui réunit des chercheurs et des praticiens intéressés par l’équité, la responsabilité et la transparence dans les systèmes sociotechniques.

    Source de l’histoire:

    Matériaux fourni par Université de Lancaster. Remarque: le contenu peut être modifié pour le style et la longueur.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *