Nel mondo di Wikipedia ci sono poche donne. Questione di pregiudizio?

Movimenti come #MeToo stanno attirando una sempre maggiore attenzione alla discriminazione femminile in una serie di ambiti professionali, dal giornalismo alle banche e al settore amministrativo.

La discriminazione, tuttavia, è anche un problema che riguarda i siti autogestiti dagli utenti, come Wikipedia, il quinto sito web più popolare al mondo: a gennaio, la versione in lingua inglese dell’enciclopedia online aveva oltre 7,3 miliardi di pagine visualizzate, oltre il 2000 percento in più rispetto ad altri siti di riferimento online come IMDb o Dictionary.com.

Il livello del traffico registrato su Wikipedia – insieme all’integrazione dei risultati di ricerca e di assistenti digitali come Alexa o Siri – rende questo sito la principale fonte di informazioni sul web. Tanto che YouTube ha annunciato di recente che comincerà a includere link di Wikipedia sotto i video degli argomenti più discussi.

Ma alcuni studi dimostrano che su Wikipedia vi sono meno argomenti che riguardano il sesso femminile rispetto a quello maschile. Al Rochester Institute of Technology, stiamo prendendo provvedimenti per consentire ai nostri studenti e alla comunità globale di affrontare le questioni di pregiudizio di genere su Wikipedia.

Segni del bias

Gestito da una oltre 33 milioni di editori volontari, il contenuto di Wikipedia può cambiare quasi in tempo reale. Ciò lo rende una risorsa primaria per eventi attuali, cultura, sport e altri argomenti in evoluzione. Ma affidarsi a volontari porta a pregiudizi sistemici – sia nella creazione che nel miglioramento dei contenuti. Uno studio del 2013 stimava che le donne rappresentavano solo il 16,1% della base editoriale di Wikipedia. E il co-fondatore di Wikipedia, Jimmy Wales, ritiene che il numero non sia cambiato molto da allora, sebbene siano stati fatti diversi sforzi in questa direzione.

Se le donne non collaborano attivamente nel curare Wikipedia quanto gli uomini, gli argomenti di interesse per le donne rischiano di essere coperti in maniera insufficiente. Uno studio ha scoperto che su Wikipedia il livello di copertura relativa a temi femminili era maggiore dei quella sull’Enciclopedia Britannica online, tuttavia gli elenchi di personaggi femminili rappresentano ancora meno del 30% delle biografie. Inoltre, le voci sulle donne sono più frequentemente collegate a link di biografie maschili che non viceversa e includono più spesso informazioni sulle relazioni sentimentali e sulla famiglia.

Inoltre, le politiche di Wikipedia stabiliscono che tutti i contenuti debbano essere “attribuibili a una fonte affidabile e pubblicata”. Poiché le donne nel corso della storia sono state meno rappresentate nella letteratura rispetto agli uomini, può essere difficile trovare fonti affidabili e pubblicate che riguardano le donne.

Un necrologio sul giornale è spesso un criterio per creare una voce biografica su Wikipedia. Quindi non dovrebbe sorprendere che le donne siano meno rappresentate in questa vasta enciclopedia online. Come ha notato lo stesso New York Times, dal 1851 i suoi necrologi “sono stati dominati da uomini bianchi” – una errore che ora il giornale punta a riparare attraverso la sua serie “Trascurati”. Anche la categorizzazione può rappresentare un problema. Nel 2013, un redattore del New York Times ha rivelato che alcuni editori hanno spostato le voci femminili da categorie di genere neutro (ad es. “Scrittori americani”) a sottocategorie basate sul genere (ad esempio, “Scrittori donne americani”).

Wikipedia non è l’unica risorsa online che contiene queste differenze di genere. Anche il servizio di mappatura online autogestito dagli utenti, OpenStreetMap, viene curato in maniera molto più marcata dagli uomini. GitHub, una piattaforma online di sviluppo di software, i contributi delle donne vengono approvati più frequentemente rispetto a quelli prodotti dagli uomini, ma uno studio ha dimostrato che le percentuali relative all’approvazione scendono notevolmente quando l’utente viene identificato come donna attraverso il suo nome o l’immagine del profilo.

Il bias di genere è un problema ricorrente anche negli algoritmi di ricerca. È stato dimostrato il sovra-utilizzo dei pronomi maschili da parte di Google Translate e, per un certo periodo, LinkedIn suggeriva nomi maschili nei risultati di ricerca anche quando gli utenti cercati erano donne.

Cosa si può fare?

La soluzione ai bias sistemici che interessano il web non è chiara. Ma le biblioteche, i musei, i singoli editori e la stessa Wikimedia Foundation continuano a impegnarsi per migliorare la rappresentazione di genere sui siti come Wikipedia.

L’organizzazione di eventi come gli Edit-a-thon può creare una community che si occupa di modificare e sviluppare contenuti sotto-rappresentati. Gli Edit-a-thon mirano ad aumentare il numero di redattrici attive su Wikipedia, consentendo ai partecipanti di modificare le voci sulle donne durante l’evento e nel futuro.

Alla fine di questo mese, la nostra biblioteca universitaria ospiterà la sua seconda edizione Women on Wikipedia Edit-a-thon per celebrare il “Women’s History Month”. L’obiettivo è migliorare le biografie di almeno 100 donne in un pomeriggio.

Negli ultimi quattro anni, gli studenti del corso “American Women’s and Gender History” della nostra università hanno lavorato per creare nuove (o modificare) voci di Wikipedia sulle donne. Uno studente ha creato una voce sul pioniere sordo-cieco Geraldine Lawhorn, mentre un altro ha aggiunto circa 1.500 parole alla voce dell’artista jazz Blanche Calloway. Questo corso è stato supportato dal Wikimedia Education Program, che incoraggia gli insegnanti e gli studenti a contribuire a Wikipedia in contesti accademici.

Attraverso questo incarico, gli studenti possono immediatamente vedere come i loro sforzi contribuiscano alla più ampia conversazione sugli argomenti della storia delle donne. Uno studente ha detto che era “l’incarico più significativo che aveva” come studente universitario.

Altri sforzi per affrontare pregiudizi di genere su Wikipedia includono Wikipedia’s Inspire Campaign; comunità di redazione organizzate come Women in Red e Wikipedia’s Teahouse; e la National Science Foundation’s Collaborative Research grant. La dipendenza di Wikipedia da editori volontari ha portato a diversi problemi sistemici, ma offre anche l’opportunità di auto-correzione. Gli sforzi, se organizzati, aiutano a dare voce alle donne precedentemente ignorate da altre fonti.

L’articolo è stato pubblicato in inglese su The Conversation. Traduzione a cura della redazione di Galileo.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here