Intervista a Donata Columbro, giornalista e data humanizer

Insieme a Donata Columbro per riflettere sull’uso dei dati e algoritmi in ottica di genere e non solo.

Dal femminismo dei dati alla tecnologia non neutra. 
L’intervista mostra qual è la correlazione fra il divario di genere e il mondo virtuale.
Un approccio critico basato su algoritmi ed evidenze digitali: “formule che regolano il nostro tempo”. 

Il Data Book Club è un gruppo di lettura da te fondato per commentare libri sui dati e discutere di tecnologia con un approccio femminista intersezionale. Qual è secondo te la correlazione tra dati, tecnologia e femminismo intersezionale?
All’interno del Data Book Club parliamo di libri caratterizzati da un approccio femminista intersezionale perché crediamo che il discorso sui dati e la tecnologia sia sempre stato fatto attraverso uno sguardo maschile occidentale. Il femminismo dei dati, invece, ci permette di osservare quali sono le dinamiche di potere che si instaurano in questo settore specifico: chi detiene le posizioni principali, ma anche il modo stesso in cui vengono raccolti i dati che servono a comprendere quali sono le professioni del mondo Tech. 
I dati ci restituiscono una visione stereotipata perché non prendono in considerazione i lavori definiti invisibili, meno considerati, come ad esempio l’etichettatura. La pratica di "labeling", etichettatura o annotazione è fondamentale per il funzionamento di strumenti che hanno alla base le tecniche di machine e deep learning.
Spesso le grandi aziende tech impiegano risorse esterne per questo lavoro, considerato a bassa specializzazione, i lavoratori e le lavoratrici che se ne occupano sono sottopagate e senza diritti. Eppure sono le persone che danno il senso ai dati usati tutti i giorni dalle Intelligenze Artificiali con cui ci interfacciamo. Rendere "visibile", raccontare e denunciare questo aspetto nascosto delle nuove tecnologie è anche praticare il femminismo dei dati. 

In un articolo da te scritto e pubblicato su “La Stampa” e in un tuo post Instagram affermi che “Internet odia le donne e le comunità marginalizzate”. 
Perché e su quali dati ti sei basata per giungere a questa tesi?
Nell’articolo sottolineo come le donne siano maggiormente colpite dai discorsi di odio online a dall’hate speech. Questi dati sono all’interno della “Mappa dell'Intolleranza”
e dell'Osservatorio Italiano sui Diritti": al vertice delle classifiche delle categorie più odiate online ci sono le donne, questo proprio a causa delle piattaforme e del modo in cui sono state costruite. Infatti, nel settore Tech c’è una prevalenza di lavoratori uomini e la tecnologia non è uno strumento neutro e gli effetti peggiori ricadono sulle comunità e sulle persone già marginalizzate. 
Sul tema ne ha scritto anche Lilia Giugni nel suo "La rete non ci salverà” (Longanesi, 2022), un folgorante reportage tecnologico e femminista sulle disparità causate da Internet così come la stiamo usando oggi.

Ti è mai capitato di analizzare attraverso i dati il fenomeno del digital gender gap?
Quali potrebbero essere le fonti che possono venirci in aiuto?
Il digital gender gap si riferisce alle disparità tra uomini e donne nell'accesso e nell'utilizzo delle tecnologie dell'informazione e della comunicazione, e può manifestarsi in vari modi, tra cui differenze nell'alfabetizzazione digitale, nell'accesso alle risorse tecnologiche, nelle opportunità di formazione tecnologica e nelle rappresentanze nei campi STEM (Scienza, Tecnologia, Ingegneria e Matematica).
Esistono diverse fonti che ci forniscono dati a riguardo. Ci sono dati dell'ONU per cui le probabilità che le donne possiedano uno smartphone sono inferiori del 18% rispetto agli uomini, e le donne hanno anche minori possibilità di accedere o utilizzare Internet. Infatti, nell'ultimo anno, il numero di uomini che hanno avuto accesso a Internet ha superato quello delle donne di 259 milioni. Inoltre, le donne rappresentano solo il 28% dei laureati in ingegneria e il 22% dei professionisti che lavorano nel campo dell'Intelligenza Artificiale a livello mondiale.
Cito anche la Plan International che si occupa della discriminazione delle donne a cusa dell’accesso ridotto ad Internet. Secondo il punteggio "Women in Digital" (Plan International) l'Italia si posiziona 25esima tra 28 paesi europei, ben 12 posizioni sotto la media europea per parità di genere digitale.

Durante il tuo percorso formativo e professionale sei entrata in contatto con le materie STEM.
Secondo diverse ricerche è dimostrato che esiste in questo ambito un forte divario.
Come possiamo contrastarlo?
È importante considerare che il divario è presente ovunque e non riguarda soltanto le materie STEM, infatti, all’interno del settore Tech è possibile notare un divario economico e di potere rilevante. Gli uomini occupano le posizioni lavorative principali mentre le donne ricoprono ruoli inferiori e sottopagati. È importante perciò rivedere il modo in cui affrontiamo le discriminazioni con l’obiettivo di raggiungere la parità non solo nell’ambito STEM ma ovunque.
Detto questo, i dati della Commissione europa (studio "Donne nell’era digitale") ci dicono che in Europa solo 24 laureate su 1000 hanno una specializzazione collegata all’ICT - delle quali solo sei trovano lavoro nel settore digitale, e ci sono quattro volte più uomini che donne che portano a termini studi correlati all’ICT. La quota di uomini che lavorano nel settore digitale, poi, è 3,1 volte maggiore di quella delle donne. La disparità di potere e accesso al potere nel campo tecnologico è evidente.

Tu stessa ti definisci una femminista dei dati e durante il TEDxCuneo hai parlato di data feminism. Che cosa significa e perché secondo te è così importante? 
Il data feminism è un modo di guardare alla produzione della data science e della statistica e ci fa comprendere le dinamiche di potere. È inoltre possibile osservare e analizzare le discriminazioni esistenti e quelle che possono essere prodotte dai dati, oltre all’uso distorto provocato dalla tecnologia. 
Catherine D'Ignazio e Laureen Klein, con il loro libro “Data feminism”, pubblicato nel 2020, mettono insieme una vera e propria  raccolta di pratiche e principi, sette in totale, per definire un modo di pensare alla scienza dei dati e alla statistica guardando alle dinamiche di potere nella società e alle discriminazioni che i dati stessi possono perpetuare. Dopo averlo letto per me è diventato impossibile insegnare e fare divulgazione sul tema dei dati senza fornire gli strumenti per comprendere che cosa stavamo maneggiando dentro fogli di calcolo e grafici.
Non si torna più indietro. Non sono solo numeri, ma narrazioni potenti, che includono per forza uno sguardo soggettivo sul mondo. Altro che “data driven”, altro che “senza dati sei solo una persona con un’opinione”. Anche chi porta i dati ha una sua opinione.

All’interno della rubrica “Data Storie” pubblicata su “La Stampa” commentando un saggio dal titolo “Gender Tech” di Laura Tripaldi hai parlato di come la tecnologia di genere non sia neutra ma in grado di controllare il corpo delle donne. 
Cosa si intende per “Gender Tech”? Può essere una forma di discriminazione di genere?
Consiglio vivamente di leggere il libro di Laura Tripaldi. L’autrice ci fa capire come la tecnologia non sia neutra. Strumenti come la pillola per regolare il ciclo, le App che aiutano a monitorarlo, l'ecografia e i test di gravidanza rientrano in quelle che chiamiamo "tecnologie di genere". Queste innovazioni hanno influenzato profondamente la vita delle donne nel corso del tempo, portando sia vantaggi che svantaggi: da un lato hanno permesso di acquisire maggiore consapevolezza e controllo sul proprio corpo, dall’altro sono state utilizzate per ri-definire i limiti e i confini. Quando si comincia a vedere il corpo come qualcosa di politico, sia per le donne che per le persone trans, gli strumenti scientifici si sono trasformati in mezzi di dominio che compromettono l'autodeterminazione.

Nel tuo libro “Dentro l’algoritmo. Le formule che regolano il nostro tempo” uscito a Novembre 2022 è presente la tematica della discriminazione, anche di genere. Prendi nello specifico in considerazione l’algoritmo sessista e razzista. Puoi condividere la tua riflessione
L’algoritmo può discriminare le persone, specialmente quelle già marginalizzate. Sono presenti due casi: un algoritmo che riguarda i social media, dove i contenuti più visti all’interno delle nostre bacheche sono polarizzanti e, perciò, possono condurre a campagne d’odio verso certe soggettività: spesso si tratta di donne, persone appartenenti alla comunità LGBTQ+, persone con corpo disabile o non conforme e persone già vittime di razzismo.
Il secondo caso riguarda gli algoritmi utilizzati quando viene richiesto un mutuo oppure un’assicurazione sanitaria. Pensiamo agli Stati Uniti dove c’è la possibilità di incrociare le banche dati, fortunatamente in Europa grazie al GDPR (Garante per la Protezione dei Dati Personali) questo non è possibile. Gli utenti sulla base delle proprie caratteristiche sono inserite all’interno di un cluster e sono quindi condannate a seguire i comportamenti di persone già classificate. È stato studiato che si tratta di condizioni peggiorative specialmente per coloro che sono già posizionate ai margini della società.
Di questi temi me ne sono occupata anche con l'ultimo libro "Quando i dati ci discriminano", cito alcune righe: "se chi produce il dato è situato, posizionato rispetto alla sua condizione sociale, politica, ma anche rispetto al corpo che abita, dobbiamo togliere dal nostro immaginario legato alla produzione statistica, ma anche alla scienza dei dati l’idea di poter ottenere il rigore e la “pulizia” che viene insegnata anche come prassi quando si elaborano i dataset per ottenere una base da cui partire per un’analisi o per alimentare i sistemi di apprendimento degli algoritmi. Eliminare l’anomalia, l’outlier, non è un atto neutrale, ma una scelta, e come tale andrebbe insegnata".

Digitale: femminile singolare

Parità di genere e digitale. Storie a confronto tra sfide e opportunità

Iscriviti alla newsletter per restare sempre aggiornatə