Wikimedia Foundation elections/2021/Candidates/CandidateQ&A/Question9/fr
Gerard Meijssen (GerardM)
Il s'agit d'un préjugé selon lequel, en raison des arguments utilisés par les grandes versions de Wikipédias, les fonctionnalités ne sont pas construites pour les petites Wikipédias. En l'état, aucune Wikipédia n'est capable de maintenir toutes ses listes, les listes peuvent être générées et maintenues à partir de Wikidata et sont souvent de meilleure qualité. Des boîtes d'information et des listes de base peuvent être affichées là où il n'y a pas d'information du tout, fournissant ainsi un support Wiki de qualité à son public.
Dariusz Jemielniak (Pundit)
Je pense que la première ligne de lutte contre les préjugés consiste en fait à accroître la diversité. Le problème est que les préjugés existants nous empêchent effectivement d'atteindre la diversité naturellement (en d'autres termes, il est difficile de l'augmenter sans stimulation). Ainsi, comme je l'ai exprimé dans ma réponse à une autre question, je trouve que faire des efforts pour accroître la diversité est important pour résoudre ce problème. De plus, nos articles les plus impartiaux sont ceux qui ont été édités et lus par de nombreux rédacteurs. Comme je l'ai écrit dans mon livre, les préjugés sont éliminés en écrasant des points de vue différents - et pour cela, nous avons besoin de points de vue différents, donc encore plus de personnes ayant des origines différentes. Il convient de tenir compte des différentes formes de partialité - par exemple, les agences de relations publiques qui "pimentent" les articles de leurs clients, les partis ou régimes qui tentent de blanchir leurs pages... Combattre les préjugés, ce n'est pas seulement supprimer les informations inexactes, c'est aussi s'assurer que notre contenu reflète proportionnellement les points positifs et négatifs existants des phénomènes décrits. Je crains que, jusqu'à présent, nous soyons rarement confrontés à des groupes importants et bien coordonnés de rédacteurs expérimentés, qui tentent d'imposer leur point de vue biaisé à tout le monde. Nous devrions développer de meilleures approches pour nous défendre contre de telles stratégies, et à mon avis, l'utilisation de groupes de travail communautaires mondiaux (similaires aux stewards) pourrait être utile. Pundit (talk) 09:48, 8 July 2021 (UTC)
Lionel Scheepmans (Lionel Scheepmans)
Une fois de plus, il m'est difficile de répondre à la question de biais, traduite en français par l'expression « préjugé », sans savoir que quoi on parle exactement. Il existe tellement de biais et de préjugé au sein du mouvement qu'il me semble impossible d'en faire le tour.
Reda Kerbouche (Reda Kerbouche)
No response yet.
Rosie Stephenson-Goodknight (Rosiestep)
Les préjugés et la diversité vont de pair. En fait, lorsque j'ai rédigé ma réponse à la question n° 7, j'ai abordé la lutte contre les préjugés. La lutte contre les préjugés commence par la reconnaissance de nos propres préjugés ; nous en avons tous d'une manière ou d'une autre. La lutte contre les préjugés est un processus circulaire. L'augmentation de la diversité des lecteurs peut entraîner une augmentation de la diversité des contributeurs (rédacteurs, développeurs, affiliés, etc.). La diversité des contributeurs peut conduire à la diversité du contenu (si le contributeur se sent en sécurité et a le sentiment que ses contributions sont valorisées). La diversité du contenu (par exemple, un plus grand nombre de rédacteurs travaillant sur un même article, un plus grand nombre d'articles sur un sujet particulier, etc.) peut déboucher sur la diversité des lecteurs. Les politiques (par exemple, Notabilité ; Sources fiables) qui traitent des questions de partialité au sein de ce processus circulaire sont essentielles, en gardant à l'esprit que chaque communauté wiki est différente.
Mike Peel (Mike Peel)
Je suis d'accord avec les autres qui ont dit que la solution aux préjugés est la diversité. Les processus que Wikipédia utilise pour garantir la Neutralité de Point de Vue ( NPOV) semblent généralement fonctionner, mais ils fonctionnent toujours *mieux* lorsqu'il y a de nombreux éditeurs qui collaborent sur les articles (en particulier les plus controversés), et en exigeant que les informations soient référencées et en évitant tout poids excessif. Je pense que les affiliés (et la WMF dans une certaine mesure) peuvent également contribuer à réduire les biais en rendant plus de contenu et de références disponibles (pour prendre un exemple semi-neutre : la plupart des médias relatifs aux vaisseaux spatiaux proviennent de la NASA plutôt que d'autres agences spatiales, simplement en raison des droits d'auteur : cela pourrait être moins biaisé en persuadant les autres agences spatiales d'adopter des licences libres). Merci. Mike Peel (talk) 11:52, 11 July 2021 (UTC)
Adam Wight (Adamw)
Je pense que le pilier point de vue "neutre" est l'un des meilleurs principes directeurs de Wikipédia, et est probablement plus que tout autre responsable de son succès. Cependant, un point de vue "pluriel" pourrait mieux décrire l'intention. La neutralité et l'absence de parti pris sont problématiques car elles sont généralement mesurées par rapport au statu quo.
En fait, l'un des plus grands biais déjà présents est que les sources Wikipédia reflètent le statu quo de la publication savante, près de 70% des références sur le Wikipédia en anglais proviennent des États-Unis et du Royaume-Uni, et seulement 0,3% du continent africain. Il s'agit d'une question de représentation mêlée à une question structurelle. Le financement d'initiatives visant à diversifier notre bassin de contributeurs et l'élargissement de la portée de nos projets pour y inclure davantage d'activisme, de musique et même d'écrits non encyclopédiques devraient contribuer à éliminer ces préjugés.
L'autre type de biais est la désinformation intentionnelle. Les recommandations de la stratégie du mouvement l'ont identifié comme un problème potentiel, mais nous devons quantifier et mesurer l'ampleur actuelle du problème. Des travaux ont été réalisés pour identifier certains exemples de rédaction promotionnelle payée, mais nous avons besoin d'une approche systématique. Ce type d'édition est préjudiciable à nos projets car il érode notre crédibilité et le dur labeur des bénévoles. D'un point de vue plus général, la désinformation sur nos projets est nuisible au monde de la même manière que la propagande, et lorsqu'elle est trouvée sur nos sites, elle érode l'idée qu'il existe une vérité partout sur l'internet. Je lutterai contre la désinformation en soutenant les programmes visant à identifier les rédactions payées non signalées, et les remèdes techniques tels que le "blâme" qui montre les parties des articles rédigées par des rédacteurs payés.
Vinicius Siqueira (Vini 175)
Les déséquilibres fondés sur la race ou le sexe, par exemple, dans le contenu des projets sont liés au faible niveau de diversité de notre communauté. La WMF doit soutenir les stratégies de la communauté pour favoriser l'engagement des minorités et des groupes négligés, en augmentant la diversité et l'équité de la représentation. Cela aura un impact direct sur la diversité dans la couverture du contenu.
Il est nécessaire d'accorder une attention particulière aux petites communautés et aux communautés plus vulnérables et d'observer les tentatives organisées de captation de projets et de diffusion de la désinformation. Investir dans des outils innovants et efficaces pour aider à combattre la désinformation.
Je pense que l'auto-gouvernance et le travail dévoué de la communauté pour maintenir le contenu aligné sur les piliers de la neutralité et de la vérifiabilité font des Wikiprojets un acteur pertinent dans la lutte contre les préjugés, les fake news et la désinformation sur Internet. Nous devons donc préserver ces caractéristiques fondamentales de nos projets. --Vinicius Siqueira (talk) 06:20, 19 July 2021 (UTC)
Yao Eliane Dominique (Yasield)
Tout est question de l'acceptation de la différence les uns des autres. On ne peut pas parler d'inclusion dans un mouvement sans pouvoir accepter la différence de l'autre. Pour ce qui est des préjugés, je crois qu'une entité de la fondation est bien habilité à apporter des réponses et actions adéquates. Je ne souhaiterais pas me prononcer.
Douglas Ian Scott (Discott)
Une communauté plus diversifiée est plus susceptible de détecter les préjugés et de prendre des mesures pour les résoudre. Cependant, les préjugés ont un impact négatif sur les efforts visant à accroître la diversité de la communauté. Ainsi, les préjugés et la diversité se trouvent dans une boucle de rétroaction positive, l'un amplifiant l'autre. Soutenir la croissance de la diversité tout en prenant des mesures directes pour combattre les préjugés (comme des politiques d'espace convivial ou une sensibilisation accrue aux préjugés) est, à mon avis, la meilleure façon d'aborder cette question. La lutte contre les préjugés, tout comme la rédaction d'une version complète de Wikipédia, nécessite une approche globale de la société.--Discott (talk) 16:19, 21 July 2021 (UTC)
Pascale Camus-Walter (Waltercolor)
Il y a beaucoup à faire pour combattre les préjugés dans les espaces Wikimedia. Léducation pour combattre les préjugés ainsi qu'une plus grande diversité dans les profils sociaux des contributeurs peuvent réduire les préjugés. Mais il peut aussi y avoir d'autres aspects. Qu'est-ce qu'un biais en fait ? Biais vient du latin Biaxius et signifie deux axes. Il peut être compris comme loucher, lorsque vous ne vous concentrez pas correctement, vous n'avez pas une vision claire, mais il signifie aussi habilement, dans le sens où vous trouvez un moyen de résoudre un problème par le côté lorsque vous ne pouvez pas le résoudre de face. Je crois que, plus les gens sont efficaces, plus ils utiliseront ce que l'on pourrait appeler des "biais opérationnels" pour avancer plus vite. En ce sens, l'efficacité peut favoriser les biais. Le biais est une sorte de raccourci que vous allez utiliser pour ne pas perdre de temps ou d'énergie. Mais il rend difficile pour les autres personnes et les nouveaux arrivants de suivre tous ces chemins de traverse. C'est peut-être la raison pour laquelle les communautés Wikimedia, dont l'efficacité est remarquable, ont également tendance à cultiver les préjugés plus que d'autres dans la société. Ainsi, une bonne façon de combattre les "biais opérationnels" pourrait être de permettre un accès plus direct à l'édition de projets en créant des supports efficaces pour simplifier la circulation dans les règles labyrinthiques qui prévalent notamment dans Wikipédia (ex : outils d'auto-évaluation, formations collégiales, compréhension claire de l'administration, accès facile aux listes de WP:XX...). --Waltercolor (talk) 10:30, 9 July 2021 (UTC)
Iván Martínez (ProtoplasmaKid)
J'ai une position satisfaisante sur le point de vue neutre des projets Wikimedia, qui, même si je pense que c'est un aspect fondamental, est aussi dans l'appel permanent à intégrer plus de personnes dans l'édition. Il serait souhaitable de savoir où nous en sommes sur quelque chose comme le concept de fenêtre démographique dans notre base de contributeurs. Je ne suis pas sûr que nous ayons un taux viable d'attraction et de rétention des "15-25 ans" dans l'édition.
D'autre part, dans le monde d'aujourd'hui, l'avant-garde du changement social est menée par les mouvements qui ont une forte réflexion sur les préjugés intrinsèques de la majorité du monde. Il existe des groupes de personnes qui luttent contre les préjugés linguistiques, culturels, raciaux, de genre et autres, et il y a beaucoup à apprendre de leur raisonnement. Par exemple, notre modèle de collaboration dans le secteur culturel défend comme une priorité de son nom la collaboration avec les musées, les galeries, les archives et les bibliothèques. Un tel paradigme défend quatre centres de production culturelle dans lesquels se trouvent d'autres centres de production de connaissances qui ne sont pas de tels sites et que nous n'observons probablement pas. Il s'agit d'un exemple simple de la façon dont nous pouvons combattre les préjugés, en attirant davantage de secteurs sociaux et stratégiques qui peuvent contribuer à une vision du monde plus enrichie.
Victoria Doronina (Victoria)
Le parti pris existe lorsqu'il n'y a pas assez de rédacteurs, ou lorsque l'équilibre est fortement dominé par un côté du débat. Attirer et retenir de nouveaux rédacteurs, rendre la communauté plus accueillante pour les nouveaux venus, plus diversifiée, permettra de combattre les biais. Par exemple, nous avons eu ce problème avec le conflit arménien-azerbaïdjanais, où il y a eu une attaque unilatérale coordonnée par un plus grand groupe d'éditeurs qui ont coordonné leur réponse hors-Wiki. Nous avons introduit la médiation par les admins et éditeurs neutres, augmenté les exigences de qualité des sources, et la plupart des articles sont proches de la neutralité de point de vue (NPOV) maintenant.--Victoria (talk) 07:55, 8 July 2021 (UTC)
Lorenzo Losa (Laurentius)
Formulée ainsi, cette question est extrêmement vague ; je baserai ma réponse sur les précisions données sur la page de discussions.
Les projets Wikimedia disposent d'outils solides pour combattre les préjugés. La neutralité est inscrite comme l'un des cinq piliers de Wikipedia, et puisque tout le monde peut éditer, tout le monde peut (théoriquement) corriger tout problème.
Ce système s'est avéré très efficace, et nos projets figurent parmi les sites les plus fiables de l'internet. Cependant, il existe des limites claires. Tout d'abord, ces mécanismes fonctionnent avec de grands nombres et avec du temps. Cela met en danger les petits projets et les pages à faible visibilité. Nous pouvons atténuer ce risque en travaillant davantage comme un mouvement mondial. La communauté locale d'un seul projet peut avoir des difficultés, mais elle peut s'appuyer sur l'expérience collective de la communauté mondiale.
Deuxièmement, lorsque nous nous référons à d'autres sources d'information, nous pouvons hériter des préjugés existants. D'une certaine manière, c'est inévitable ; l'alternative, créer notre propre vérité, serait bien pire. Se référer à des sources externes et fiables reste la clé ; et augmenter la taille et la diversité de notre communauté, afin de réduire le risque d'une perspective limitée.
Raavi Mohanty (Raavimohantydelhi)
Je pense que les préjugés n'ont pas été créés du jour au lendemain, ils ont imprégné le subconscient de la majorité progressivement. Le courant dominant et la culture populaire n'ont fait qu'agir comme une caisse de résonance, présentant une vision unilatérale. La seule façon d'y remédier est d'offrir une représentation plus diversifiée. Une approche proactive doit être adoptée pour s'assurer que toutes les sections ont une voix égale. Une fois que les communautés marginalisées et défavorisées seront autorisées à exprimer librement leurs opinions, les différents préjugés diminueront également. Raavimohantydelhi (talk) 13:20, 10 July 2021 (UTC)
Ashwin Baindur (AshLin)
Les biais resteront toujours une caractéristique de Wikipédia, un problème permanent qui se pose parce qu'il s'agit du travail d'une communauté de bénévoles vaste et diverse ; toute personne qui le souhaite peut éditer Wikipédia. Certains cas de biais sont dus aux points de vue des individus, qui se manifestent dans le contenu et la manière dont les articles sont rédigés. Dans chaque projet, il y a des sujets qui sont couverts en détail alors que d'autres sujets sont peu ou pas couverts. Dans le cas du contenu et des points de vue, les processus habituels de Wikipédia, à savoir la possibilité de réécrire, d'annuler, de débattre et de développer un consensus sur les pages de discussion, d'obtenir des résolutions sur les bannières d'affichage, et ainsi de suite, permettent de traiter ce problème. En cas de couverture biaisée, les lacunes peuvent être signalées et la communauté encouragée par des incitations positives à y remédier.
Les biais systémiques sont plus difficiles à résoudre, comme par exemple le biais du genre, le biais de la notabilité et le biais idéologique. Ces biais se traduisent également par une représentation biaisée malgré la diversité, une sous-représentation et de grandes lacunes dans les connaissances sur certains sujets, mais surtout, ils peuvent donner lieu à une application injuste et inégale de la politique de suppression des nouveaux articles, à des normes différentes en matière de notabilité, à une hostilité à l'égard des points de vue, à une élaboration excessive des règles, voire à une guerre d'édition.
Les biais découlant de cette nature de Wikipedia peuvent être combattus par une plus grande prise de conscience, en signalant les comportements restrictifs, abusifs ou empreints de préjugés. Un discours raisonné et l'encouragement de formes positives de comportements sociaux sont utiles. La discrimination positive dans les événements de sensibilisation pourrait également aider à faire adhérer les communautés d'électeurs sous-représentées au mouvement.
Il est important de prendre conscience de ces biais, d'informer et d'éduquer la communauté à travers des discussions en ligne et hors ligne, car les biais sont souvent le fruit de l'ignorance. Il faut fournir à la communauté des ressources informatives à cet égard, et le personnel de la WMF peut jouer un rôle à cet égard.
Cependant, il est très important de garantir un environnement sûr et de fournir des espaces sûrs. Il doit y avoir des lieux sûrs désignés où un discours respectueux peut avoir lieu, où l'opinion impopulaire n'est pas punie pour avoir été exprimée, et où les attaques ad hominem ne sont pas tolérées, non seulement dans les espaces du projet Wikimedia, mais aussi dans les forums de médias sociaux sur des plateformes externes. Si de tels endroits existent, alors un débat honnête peut avoir lieu, sans harcèlement de quiconque pour son point de vue, et une plus grande compréhension et/ou même un consensus pourraient être atteints sur ces questions.
L'environnement linguistique est un énorme biais. Alors que certains projets Wikimedia fonctionnent entièrement dans la langue maternelle de la communauté, des projets importants comme Wikimedia Commons, Wikidata, et même Wikimedia Meta-Wiki, sont tous en langue anglaise. Le discours à travers le mouvement Wikimedia est dominé par la langue anglaise comme moyen de communication. L'internet lui-même est principalement basé sur la langue anglaise. Rendre les grands projets autonomes interopérables dans des langues autres que l'anglais est la première étape.
La disparité des ressources entre les communautés, entre les rédacteurs d'une communauté, entre les projets gérés par une communauté sont autant de biais importants. Cela pourrait être partiellement atténué par la création de hubs avec des budgets dédiés. Cependant, un nouveau regard sur la façon dont les ressources sont distribuées entre les communautés et les projets est nécessaire et devrait guider la politique future de la WMF. Le conseil d'administration a un rôle à jouer à cet égard.
La recherche sur les aspects des biais systémiques est importante pour que toute discussion ou action puisse s'appuyer sur des faits, plutôt que sur des anecdotes. L'équipe de recherche de Wikipedia est utile à cet égard.
Le plus grand défi concernant les biais, cependant, est celui des communautés qui sont dominées par des factions idéologiques qui conspirent pour détruire les principes fondamentaux de la connaissance ouverte en général, et les piliers de la culture wikimédienne en particulier, qui détournent le contenu et les processus d'édition, où la persécution en ligne et dans le monde réel des éditeurs dissidents se produit, et où une telle subornation des projets Wikimedia a la sanction, l'encouragement et la protection des gouvernements. Cela nécessite beaucoup de discussions et d'analyses, ainsi qu'une action collective de la communauté mondiale, de la communauté de la langue/du projet en question et de la WMF pour toute forme de résolution.
C'est ici que le conseil d'administration a une lourde responsabilité et qu'il doit prendre une initiative pour résoudre le problème. Si je suis élu, je m'engage à travailler en priorité à la résolution des problèmes de biais sur les projets Wikimedia.
Pavan Santhosh Surampudi (Pavan santhosh.s)
Lorsqu'une communauté Wikipédia est petite et peuplée de personnes partageant les mêmes origines, les biais sont inévitables. D'un autre côté, si nous pouvions améliorer la diversité et investir dans la croissance de la communauté, alors les biais seraient bien combattus au sein du projet. En plus de la diversité et de la croissance de la communauté, la fourniture d'outils, l'investissement dans de meilleures compétences et la recherche aideront la communauté à bien gérer cette bataille. --16:40, 18 July 2021 (UTC)
Ravishankar Ayyakkannu (Ravidreams)
There are two types of biases on Wikipedia:
- The bias flowing from the inequitable world in which we live.
- The bias sustaining because of our project and movements’ design, policies, and decisions.
While we cannot totally eliminate the first type of bias which is a socio, economic, and political problem, we can certainly take some concrete steps to eliminate the bias inherent to our projects.
We need to invest in developing tools to identify bias, bring and retain more new users, and enable the communities to discuss and refine content policies.
Farah Jack Mustaklem (Fjmustak)
Les préjugés sont un problème très complexe à surmonter. Il y a des préjugés dans tous les aspects du Mouvement Wikimedia : des préjugés liés au genre, aux préjugés linguistiques, aux préjugés Nord/Sud. La Fondation Wikimedia et le Mouvement Wikimedia sont des pionniers dans la lutte contre ces préjugés, mais le chemin à parcourir est encore long. Encourager la participation mondiale aux processus de création de connaissances et de prise de décision devrait permettre d'accroître la diversité et d'atténuer ces préjugés. --Fjmustak (talk) 23:59, 31 July 2021 (UTC)