Jump to content

Initiative de santé communautaire

From Meta, a Wikimedia project coordination wiki
This page is a translated version of the page Community health initiative and the translation is 98% complete.

Initiative de santé communautaire Aider la communauté des bénévoles de Wikimedia à réduire le niveau de harcèlement et de comportement perturbateur sur nos projets.

Les départements Auditoire et Implication de la communauté de la fondation Wikimedia sont en cours de réalisation sur un projet pluriannuel de recherche, de développement de produits et d'élaboration de politiques pour aider la communauté de bénévoles de Wikimédia à réduire le niveau de harcèlement et de comportement perturbateur sur nos projets.

Cette initiative aborde les principales formes de harcèlement signalées dans l'Enquête sur le harcèlement 2015 de la fondation Wikimedia, qui couvre un large éventail de comportements différents: vandalisme de contenu, harcèlement criminel, injures, trollage (polémiquer), traçage de document, discrimination, tout ce qui cible les individus pour une attention déloyale et nuisible .

Cela se traduira par des améliorations à la fois des outils du logiciel MediaWiki (voir Outils anti-harcèlement) et des politiques sur les communautés qui souffrent le plus d'un comportement perturbateur (voir Croissance et application des politiques). Ces améliorations doivent être apportées avec la participation et le soutien des bénévoles qui utiliseront les outils pour que nos efforts soient couronnés de succès (voir Commentaires de la communauté).

Projets

Actuels

L'équipe construit actuellement de nouveaux outils de blocage. Nous voulons fournir des outils plus précis et sophistiqués pour permettre aux administrateurs de répondre de manière plus appropriée aux harceleurs. Ce projet comprend le blocage des pages et des espaces de noms.

Futurs

Nous avons également commencé des recherches sur des outils et des flux opérationnel (workflows) améliorés pour signaler les utilisateurs aux modérateurs, ce qui constituera un effort majeur en 2019. Rejoignez-nous dans la consultation sur le système de rapport des utilisateurs 2019 pour participer à la prise de décision !

Passés

Contexte

Harcèlement sur les projets Wikimedia

Sur Wikipédia et d'autres projets Wikimédia, le harcèlement se produit généralement sur les pages de discussion (article, projet et utilisateur), les tableaux d'affichage, les pages utilisateur et les résumés de modification. La guerre d'édition et la wikitraque peuvent également être des formes de harcèlement. Les conflits de conduite proviennent généralement de conflits de contenu, tels que des désaccords sur la fiabilité d'une source, la neutralité d'un point de vue ou la mise en forme d'un article et la hiérarchie du contenu. Ces différends peuvent devenir du harcèlement au moment où un éditeur cesse de considérer cela comme une discussion d'idées et commence à associer l'adversaire à l'idée - transformant l'autre éditeur en ennemi, qui doit être chassé du site. Ce virage malsain est plus susceptible de se produire lorsque le contenu est étroitement associé à l'identité - sexe, race, orientation sexuelle, origine nationale - car il est facile pour le harceleur de considérer la cible comme une représentation vivante de l'idée opposée. Cela est particulièrement vrai lorsque la cible est membre d'un groupe historiquement défavorisé et a divulgué des informations sur son identité au cours de sa participation aux projets.

La communauté Wikipédia anglophone (et la plupart des autres projets) ont élaboré des politiques de conduite à suivre pour leurs communautés, y compris des politiques sur la civilité, le harcèlement, les attaques personnelles et la résolution des conflits. L'esprit de ces politiques est bon, mais leur application est difficile étant donné les lacunes du logiciel MediaWiki et le ratio contributeurs / administrateurs actifs[1]. Les processus de résolution des conflits encouragent les utilisateurs à tenter de résoudre les problèmes entre eux avant de porter la situation à l'attention des administrateurs par une Requêtes aux administrateurs, et éventuellement ArbCom pour les situations extrêmes[2].

Enquête sur le harcèlement 2015 - Rapport des résultats

Le harcèlement en ligne est un problème sur pratiquement tous les sites Web où les utilisateurs interagissent. En 2017, le Pew Research Center a conclu que 41 % de tous les internautes avaient été victimes de harcèlement en ligne[3]. En 2015, la fondation Wikimedia a mené une Enquête sur le harcèlement auprès de 3 845 utilisateurs Wikimedia afin de mieux comprendre le harcèlement survenant sur les projets Wikimedia. 38 % des répondants ont reconnu avec confiance qu'ils avaient été harcelés tandis que 51 % des répondants ont été témoins de harcèlement.

Dans le Rapport de 2017 sur l'Engagement communautaire de Wikimedia, il a été constaté que 31 % des 4500 répondants au sondage se sentaient en danger dans n'importe quel espace Wikimedia en ligne ou hors connexion à tout moment au cours de leur occupation, 49 % sur 400 utilisateurs ont évité Wikimedia parce qu'ils se sentaient mal à l'aise et 47 % sur 370 utilisateurs ont indiqué qu'au cours des 12 derniers mois, ils avaient été intimidés ou harcelés sur Wikipédia. De plus, 60 % des personnes qui ont signalé un différend aux fonctionnaires (utilisateurs avec certains status techniques) disent que leur problème n'était « pas du tout résolu » et 54 % ont qualifié leur interaction avec les fonctionnaires « pas du tout utile ». Les résultats du Rapport Perspectives 2018 montrent des résultats similaires, avec une légère diminution des répondants déclarant ne pas se sentir en sécurité.

Cette recherche est éclairante et l'un des moteurs de cette Initiative de Santé communautaire, mais elle n'est que le début de la recherche que nous devons mener pour que cette entreprise soit couronnée de succès.

Sollicitation de nouveaux outils par la communauté

La communauté Wikimedia a longtemps lutté pour protéger ses membres contre la mauvaise foi ou les utilisateurs nuisibles. L'ensemble d'outils d'administration que les administrateurs de projet peuvent utiliser pour bloquer les utilisateurs perturbateurs de leurs projets n'a pas changé depuis les premiers jours du logiciel MediaWiki. Les bénévoles ont demandé à la fondation Wikimedia d'améliorer les outils de blocage à plusieurs reprises, notamment :

Lors de la préparation de cette initiative, nous avons discuté des problèmes liés aux outils et processus actuels avec des administrateurs et des fonctionnaires actifs. Ces discussions ont abouti à des améliorations demandées dans plusieurs domaines clés où les administrateurs et les fonctionnaires voient des besoins immédiats — de meilleurs systèmes de notification pour les volontaires, des moyens plus intelligents de détecter et de résoudre les problèmes rapidement, et de meilleurs outils et flux de travail liés au processus de blocage. Ces conversations se poursuivront tout au long du processus. L'apport et la participation de la communauté seront essentiels à notre succès.

Financement externe

Proposition de subvention en 2017 pour les Outils anti-harcèlement sur les projets Wikimedia

En janvier 2017, la Wikimedia Foundation a reçu un financement initial de 500 000 USD de la Craig Newmark Foundation et du Craigslist Charitable Fund pour soutenir cette initiative[4]. Les deux subventions de démarrage, chacune de 250 000 USD, soutiendront le développement d'outils pour les rédacteurs bénévoles et le personnel afin de réduire le harcèlement sur Wikipédia et de bloquer les harceleurs. La proposition de subvention est disponible pour examen sur Wikimedia Commons..

Buts

  • Réduire le nombre de comportements de harcèlement qui se produisent sur les projets Wikimedia.
  • Résoudre sous de bonnes auspices un pourcentage plus élevé d'incidents de harcèlement qui se produisent sur les projets Wikimedia.

Mesures de succès potentielles

Il est difficile de mesurer le harcèlement, mais nous voulons toujours être sûrs que notre travail a un impact sur la communauté. Les idées actuelles comprennent :

  • la diminution du pourcentage de commentaires d'attaques personnelles identifiables sur Wikipédia en anglais.
  • la diminution du pourcentage d'utilisateurs non administrateurs qui déclarent avoir vu du harcèlement sur Wikipédia, mesuré via une enquête.
  • l'augmentation de la confiance des administrateurs avec leur capacité à prendre des décisions précises dans les conflits de conduite, mesurée via une enquête.
  • l'augmentation de la rétention de nouveaux utilisateurs.

Objectifs annuels et trimestriels

Pour des commentaires sur nos progrès trimestriels, voir Initiative de santé communautaire/Mises à jour trimestrielles.

Commentaires de la communauté

Rassembler, incorporer et discuter des commentaires de la communauté est essentiel au succès de cette initiative. Nous créons des fonctionnalités que nos communautés peuvent utiliser — si nous concevons dans le vide, nos décisions échoueront certainement.

Les plans présentés dans la subvention, sur cette page et ailleurs changeront certainement au fil du temps au fur et à mesure que nous collectons les commentaires de notre communauté (y compris les victimes de harcèlement, les contributeurs et les administrateurs), apprenons de nos recherches et apprenons du logiciel que nous construisons. L'apport de la communauté comprend, sans s'y limiter:

  • Socialiser nos objectifs
  • Générer, affiner, valider et finaliser des idées avec les parties prenantes de la communauté
  • Conversations sur la liberté d'expression contre le politiquement correct. Il est très important que ce projet soit considéré comme abordant les types d'abus sur lesquels tout le monde est d'accord (vandalisme évident de faux-nez, menaces de mort) et les types d'abus sur lesquels les gens différeront (sexe, culture, etc.). Le projet ne réussira pas s’il n’est considéré que comme un jeu de pouvoir de « justice sociale »[5].

Au cours de cette initiative, nous prévoyons de communiquer avec la communauté via une communication wiki habituelle (pages de discussion, e-mail, IRC) en plus des ateliers de diffusion en direct, des ateliers en personne dans les hackathon et Wikimanias et des consultations communautaires en ligne. À l'heure actuelle, le meilleur endroit pour discuter de l'initiative de santé communautaire est sur Talk:Initiative de santé communautaire.

Outils anti-harcèlement

En abrégé, nous voulons créer un logiciel qui permette aux contributeurs et aux administrateurs de prendre des décisions opportunes et éclairées en cas de harcèlement. Quatre domaines d'intervention ont été identifiés où de nouveaux outils pourraient être bénéfiques pour lutter contre le harcèlement et y répondre:

Dépistage

Nous voulons qu'il soit plus facile et plus efficace pour les éditeurs d'identifier et de signaler les comportements de harcèlement. Nous nous demandons actuellement comment prévenir le harcèlement avant qu'il ne commence et comment résoudre les incidents mineurs avant qu'ils ne dégénèrent en problèmes d'incivilités plus importants.

Caractéristiques potentielles :

  • Gestion des performances du Filtre antiabus, convivialité et améliorations des fonctionnalités
  • Amélioration de la fiabilité et de la précision de ProcseeBot
  • Améliorations anti-usurpation des outils pertinents
  • Fonctionnalités qui mettent en évidence le vandalisme du contenu, les guerres d'édition, de harcèlement et de harcèlement aux administrateurs et au personnel du wiki.

Signalement

Aucune victime de harcèlement ne devrait abandonner l'édition, car elle se sent impuissante à signaler un abus. Nous voulons offrir aux victimes de meilleures façons de signaler les cas qui respectent davantage leur vie privée, moins chaotiques et moins stressants que le flux de travail actuel. Actuellement, la charge de la preuve incombe à la victime de prouver son innocence et la faute du harceleur, alors que nous pensons que le logiciel MediaWiki devrait effectuer le gros du travail.

Fonctionnalités potentielles :

  • Un nouveau système de signalement du harcèlement qui ne fait pas peser la charge de la preuve sur les victimes de harcèlement ni ne les aliènent davantage.

Évaluation

La maîtrise des différences, des historiques et des pages spéciales de MediaWiki est impérative pour que les administrateurs soient en mesure d'analyser et d'évaluer la véritable séquence d'événements d'un conflit de conduite. Des outils écrits par des bénévoles tels que Analyseur d'Interaction d'Édition et WikiBlame aident, mais les processus actuels prennent du temps. Nous voulons créer des outils pour aider les bénévoles à comprendre et à évaluer les cas de harcèlement et à déterminer la meilleure façon de répondre.

éditeur d'analyseur d'interaction

Caractéristiques potentielles:

  • Un outil de chronologie d'interaction robuste, qui permettra aux administrateurs de wiki de comprendre l'interaction entre deux utilisateurs au fil du temps et de prendre des décisions éclairées dans les cas de harcèlement.
  • Un système privé pour les administrateurs de wiki pour collecter des informations sur l'historique des utilisateurs avec des cas de harcèlement et d'abus, y compris les restrictions des utilisateurs et les décisions d'arbitrage.
  • Un système de tableau de bord pour les administrateurs de wiki pour les aider à gérer les enquêtes en cours et les mesures disciplinaires.
  • Outils inter-wiki qui permettent aux administrateurs de wiki de gérer les cas de harcèlement à travers les projets et les langues du wiki.

Blocage

Nous voulons améliorer les outils existants et créer de nouveaux outils, le cas échéant, pour supprimer les acteurs gênants des communautés ou de certaines zones à l'intérieur et pour rendre plus difficile le retour d'une personne bloquée sur le site.

Certaines de ces améliorations sont déjà en cours de production dans le cadre de la Liste de Souhaits de la communauté de 2016. Voir Technologies communautaires/Outils de blocage pour plus d'informations.

Fonctionnalités potentielles:

  • Outils de blocage par page et par catégorie pour appliquer les interdictions de sujet, ce qui aidera les administrateurs de wiki à rediriger les utilisateurs perturbateurs sans les empêcher complètement de contribuer au projet; cela rendra les administrateurs de wiki plus à l'aise pour prendre des mesures décisives aux premiers stades d'un problème.
  • Outils qui permettent aux utilisateurs individuels de contrôler qui peut communiquer avec eux via les notifications Echo, les e-mail et les noms d'utilisateur.
  • Faire fonctionner les outils de CheckUser globaux sur tous les projets, en améliorant les outils qui correspondent aux noms d'utilisateur avec les adresses IP et les agents utilisateurs afin qu'ils puissent vérifier les contributions sur tous les projets Wikimedia en une seule requête.
  • Outils de blocage améliorés, y compris les outils de blocage de faux-nez.

Priorisation des travaux

Nos projets sont actuellement priorisés dans le classeur Anti-harcèlement (Anti-Harassment) de Phabricator dans la colonne Epic backlog. Nous invitons tout le monde à partager leurs réflexions sur notre priorité sur les billets Phabricator, sur la page de discussion de cette page, ou en nous envoyant un e-mail.

Les projets sont priorisés par le chef de produit en tenant compte:

  • Préparation — Qu'est-ce qui est conçu, défini et prêt pour le développement ? Y a-t-il des bloqueurs ?
  • Valeur — Qu'est-ce qui apportera le plus de valeur à nos utilisateurs ? Qu'est-ce qui résoudra les plus gros problèmes en premier ? Nos recherches ont-elles identifié des opportunités intéressantes ? Nos fonctionnalités précédentes ont-elles identifié de nouvelles opportunités ou problèmes ?
  • Faisabilité — Que pouvons-nous accomplir compte tenu de notre calendrier et de notre capacité de développeur ? Sommes-nous préparés techniquement ? Existe-t-il une assistance aux développeurs externes qui accélérera notre travail ?
  • Soutien — Qu'est-ce qui a été pris en charge par les utilisateurs qui participent aux flux de travail actuels ? Quelles idées ont l'élan des personnes actuellement touchées par le harcèlement sur Wikipédia ?

Croissance et application des politiques

En plus de créer de nouveaux outils, nous voulons travailler avec nos plus grandes communautés pour nous assurer que leurs politiques de conduite des utilisateurs sont claires et efficaces et que les administrateurs responsables de l'application des politiques sont bien préparés.

En commençant par Wikipedia anglais, une grande communauté à partir de laquelle on peut obtenir une multitude de données, nous fournirons aux contributeurs des recherches et des analyses sur la façon dont les problèmes de comportement sur Wikipedia anglais sont a) couverts par la politique, et b) appliqués dans la communauté, en particulier les panneaux d'affichage où les problèmes sont discutés et traités. Nous fournirons des recherches sur d'autres formes de résolution de problèmes spécifiques, de recherche d'efficacité et d'identification de différentes approches qui ont connu du succès sur d'autres projets Wikimedia. Cela aidera nos collectivités à apporter des changements éclairés aux pratiques existantes.

Voir aussi

Liste des sous-pages

Pages commençant par « Community health initiative » dans les espaces de noms « principal » et « Talk » :

Talk :

Références