Arrogant, subtil, intitulé : Discussions GitHub open source “toxiques” examinées

  • Français


  • Une analyse Selon une étude universitaire, les discussions toxiques sur les projets GitHub open source ont tendance à impliquer des droits, des insultes subtiles et de l’arrogance. Cela contraste avec le comportement toxique – généralement un langage grossier, des discours de haine et du harcèlement – trouvé sur d’autres coins du Web.

    Que cela semble évident ou non, c’est un point intéressant à considérer car, d’une part, cela signifie que les méthodes techniques et non techniques pour détecter et freiner les comportements toxiques sur une partie d’Internet peuvent donc ne pas bien fonctionner sur GitHub, et si vous êtes impliqué dans les communautés du géant de l’hébergement de code, vous trouverez peut-être cette recherche utile dans la lutte contre les trolls et les comportements inacceptables.

    Cela peut également signifier que des systèmes destinés à détecter et à signaler automatiquement la toxicité dans des projets open source, ou au moins ceux sur GitHub, peuvent devoir être développés spécifiquement pour cette tâche en raison de leur nature unique.

    La recherche

    Des informaticiens de l’Université Carnegie Mellon et de l’Université Wesleyan aux États-Unis ont récemment mené une étude sur la toxicité en ligne pour comprendre comment elle se manifeste dans les communautés open source.

    Les chercheurs – Courtney Miller, Sophie Cohen, Daniel Klug, Bogdan Vasilescu et Christian Kästner – décrivent leurs découvertes dans un article [PDF] intitulé “” Avez-vous manqué mon commentaire ou quoi ?” Understanding Toxicity in Open Source Discussions », qui a été présenté le mois dernier à la conférence internationale ACM/IEEE sur le génie logiciel à Pittsburgh, en Pennsylvanie.

    Dans une vidéo explicative, Miller, doctorant à l’Institute for Software Research de la CMU et auteur principal de l’article, explique que le projet a adopté la définition de la toxicité proposée par ceux qui travaillent sur l’API Perspective de Google : “un langage grossier, irrespectueux ou déraisonnable qui est susceptible de faire sortir quelqu’un d’une discussion.”

    « Pratiquement toutes les plateformes en ligne reconnaissent la menace que la toxicité, ou les différents types de comportement sous son égide, représentent pour la santé et la sécurité des communautés en ligne », indique le document. “En conséquence, un certain nombre de politiques et d’interventions de prévention et d’atténuation ont été proposées, notamment des codes de conduite, la modération, le contre-discours, l’interdiction de l’ombre ou des conseils juste à temps pour les auteurs.”

    La toxicité dans l’open source est souvent considérée comme une facette naturelle sinon nécessaire de la culture open source

    En ce qui concerne les projets open-source, le document cite la liste de diffusion du noyau Linux comme étant connue pour ses interactions peu accueillantes. Le créateur de Linux, Linus Torvalds, l’a reconnu lors du récent sommet Open Source de la Linux Foundation. Il a dit qu’il avait parfois été “trop ​​impoli” et s’est excusé pour ce qu’il a décrit comme “un échec personnel”.

    La longue tradition d’interaction brutale de la communauté open source a conduit de nombreux projets à adopter des codes de conduite, note l’article. La raison en est d’encourager les contributeurs à rejoindre des projets open source et de les empêcher d’être chassés par le trolling et d’autres formes d’hostilité.

    Les chercheurs reconnaissent que “la toxicité dans l’open source est souvent considérée comme une facette naturelle sinon nécessaire de la culture open source”. Et bien qu’il y ait ceux qui défendent un mode d’interaction en ligne plus brutal, il y a des conséquences pour les interactions en colère. Témoin les départs de la communauté Perl à cause de l’hostilité.

    “La toxicité est différente dans les communautés open source”, a déclaré Miller dans un communiqué de presse de la CMU. “C’est plus contextuel, intitulé, subtil et passif-agressif.”

    Le registre a demandé à Miller par e-mail si « toxique » en tant que terme laisse place à des individus ayant différents niveaux de tolérance pour un comportement « toxique », étant donné que l’étiquetage de quelque chose de « toxique » empêche toute discussion sur son opportunité.

    “Lorsque nous avons confirmé manuellement que les commentaires étaient toxiques, nous avons considéré un commentaire toxique s’il aurait pu donner envie à quiconque de quitter la discussion, y compris un nouveau venu”, nous a dit Miller. “Cela a été fait intentionnellement parce que, traditionnellement, dans de nombreux projets open source, la toxicité est souvent rejetée comme un aspect naturel et nécessaire de la culture.

    “Cependant, de nombreux contributeurs open source ont cité un comportement toxique et continuellement négatif comme raison de leur désengagement (voir la section 2 de notre article pour plus de détails). Pour cette raison, il était important de prendre en compte la toxicité qui pourrait être considérée comme toxique pour un large spectre. de contributeurs open source.”

    La toxicité dans les projets open source est relativement rare – les chercheurs dans des travaux antérieurs ont trouvé qu’environ six problèmes GitHub sur 1 000 étaient toxiques. Cela signifiait qu’un échantillonnage aléatoire de problèmes ne servirait pas l’objectif de la recherche. Le groupe a donc adopté plusieurs stratégies pour identifier les problèmes et les commentaires toxiques : un détecteur basé sur la langue, la recherche de mentions de “codes de conduite” et de fils de discussion verrouillés, et les fils de discussion qui avaient été supprimé.

    Le résultat a été un ensemble de données de 100 problèmes toxiques sur GitHub. Ce que les chercheurs ont découvert, c’est que la toxicité sur le site Web de Microsoft a ses propres caractéristiques.

    Une saveur subtile désagréable

    “Contrairement à certaines autres plates-formes où les types de toxicité les plus fréquents sont les discours de haine ou le harcèlement, nous constatons que le droit, les insultes et l’arrogance sont parmi les types de toxicité les plus courants en open source”, explique le document.

    Les informaticiens notent que les problèmes de GitHub, bien qu’ils incluent des insultes, de l’arrogance et de la pêche à la traîne vus ailleurs, ne présentent pas le langage sévère commun sur des plateformes comme Reddit et Twitter. Au-delà d’un langage plus doux, GitHub se distingue par son abondance de commentaires intitulés – des personnes faisant des demandes comme si leurs attentes étaient basées sur un contrat ou un paiement.

    “Contrairement aux commentaires arrogants, insultants et à la traîne, les commentaires intitulés semblent être un phénomène plus spécifique à l’open source et à la dynamique des logiciels libres d’utilisation, avec un support apparemment gratuit malgré l’absence d’obligations contractuelles”, indique le document.

    La nature plus douce de la toxicité de GitHub semble être liée au fait que la plupart des interactions toxiques ne proviennent pas de trolls ou d’utilisateurs anonymes, mais de développeurs open source expérimentés et de responsables de projet.

    À quoi ressemble la toxicité de GitHub ? Voici l’une des discussions, tirée du référentiel Elementary OS d’il y a deux ans, citée par Miller, qui pointe des passages tels que “Le problème, c’est que votre équipe nous oblige à utiliser le système d’exploitation comme vous voulez que nous l’utilisions, même si cela en fait 1 000 000 fois plus difficile de l’utiliser à votre façon, que ce qui nous conviendrait.”

    “Ces citations aident à résumer la nature intitulée, exigeante et souvent insultante des commentaires toxiques fréquemment trouvés dans les communautés open source que nous avons observées”, a déclaré Miller.

    Danielle Foré, fondatrice d’Elementary, a clôturé le fil de discussion en expliquant : “Je voudrais être très clair sur le fait que notre politique n’est pas de verrouiller les fils de discussion là où il y a des opinions dissidentes. Un débat respectueux est sain et important. Mais quand vous commencez à appeler des noms et étant irrespectueux et ne respectant pas le code de conduite, la discussion devient improductive. Ce genre de comportement destructeur n’est pas toléré dans notre communauté.

    Les chercheurs identifient une variété de déclencheurs de comportement toxique, qui se produisent principalement dans les grands projets populaires. Il s’agit notamment des problèmes d’utilisation des logiciels, des désaccords techniques, de la politique/idéologie et des interactions passées.

    Quel est le mal ?

    L’article explore la nature de la toxicité sur GitHub mais n’examine pas quand un préjudice réel en découle.

    “Les méfaits de la toxicité n’entraient pas dans le cadre de ce projet, mais de manière informelle, nous avons observé qu’une chose qui semblait être un moyen efficace de réduire la toxicité était que les mainteneurs citent le code de conduite de leur projet et verrouillent le fil comme trop chaud”, a déclaré Meunier. “Cela a semblé aider à réduire le temps et le travail émotionnel nécessaires pour faire face à la toxicité.”

    Interrogé sur les résultats, Martin Woodward, directeur principal des relations avec les développeurs chez GitHub, a déclaré dans un communiqué envoyé par e-mail : “Bien qu’il soit rassurant de voir que certains des comportements toxiques les plus extrêmes des communautés en ligne sont moins courants sur GitHub, les problèmes soulevés autour les gens se sentant en droit d’imposer des exigences aux leaders bénévoles de la communauté qui dirigent la plupart des projets open source est certainement quelque chose que nous reconnaissons dans nos conversations avec les mainteneurs.

    “Nous continuons d’essayer d’éduquer les gens sur GitHub avec des événements comme le mois du responsable, mais nous continuons également à travailler avec les responsables et les chercheurs pour améliorer les capacités de modération de la communauté que nous fournissons.”

    Miller a déclaré que bien qu’elle et ses collègues n’aient pas parlé directement avec GitHub de leurs découvertes, ils ont des idées pour atténuer les interactions hostiles.

    “Une recommandation est que puisque la toxicité open-source se manifeste différemment de la toxicité sur d’autres plates-formes, afin de l’identifier et d’intervenir efficacement, les travaux futurs devraient construire un détecteur de toxicité spécifique open-source”, a déclaré Miller. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *