Le nuove tecnologie e il digitale ci vengono incontro, anche in questo caso, grazie a software come Inclusively, l'algoritmo, sviluppato all'interno del progetto E-Mimic, capace di revisionare i testi universitari e amministrativi e correggerli rendendoli più inclusivi.
Gentile prof.ssa Cavagnoli, innanzitutto ci farebbe piacere sapere qualcosa di più sul progetto E-Mimic…
E-Mimic è un progetto che vuole sviluppare un’interfaccia consultabile dalla pubblica amministrazione, per elaborare dei testi che siano rispettosi delle differenze. Il linguaggio, infatti, usato in maniera impropria, può discriminare non solo le donne, ma anche persone di etnia differente, con disabilità o difficoltà di fruizione dei testi. E-Mimic, grazie alla sua propensione verso l’inclusività, ha vinto il finanziamento Prin (Progetti di Rilevante Interesse Nazionale), assegnato dal Ministero dell’Università e della Ricerca.Il progetto, interdisciplinare, coinvolge tre Università che collaborano sinergicamente: l’Università di Roma Tor Vergata e l’Università di Bologna-Forlì seguono la parte di ricerca linguistica, mentre il Politecnico di Torino si occupa dell’implementazione tecnologica.
Come funziona nello specifico la piattaforma e qual è il ruolo dell’algoritmo Inclusively?
Siamo partiti da un corpus di testi della pubblica amministrazione, in particolare dell’Università, ma anche dei Comuni e delle Regioni. Il lavoro si suddivide in una prima fase, in cui il testo caricato sulla piattaforma viene segmentato, mentre in un secondo momento dei linguistǝ eseguono un doppio controllo sul testo per verificare che non siano presenti dei termini inappropriati dal punto di vista del rispetto delle differenze. Inclusively è l’algoritmo che, grazie all’intelligenza artificiale, va ad automatizzare questo controllo e a renderlo immediato. Il nostro obiettivo è quello, attraverso un numero più ampio possibile di testi analizzati, di fornire diverse istruzioni a Inclusively.
In quale misura i testi amministrativi e scolastici possono discriminare i cittadini?
I testi giuridico-amministrativi sono nella maggior parte dei casi redatti al maschile. Una scelta legata soprattutto alla cultura linguistica del nostro Paese. Infatti, la discriminazione di genere in questa tipologia di documenti è quella più evidente. In Italia si parte dal maschile per declinare al femminile ma è una scelta arbitraria e non legata alla grammatica. Un’influenza che troviamo molto forte anche nel sistema scolastico e che accompagna i cittadinǝ, sin dalla più tenera età: ad esempio con dei testi scolastici che ripropongono l’immagine della bambina dolce e carina e quella del bambino forte e coraggioso. Attraverso il linguaggio, poi, si consolidano i rapporti di potere esistenti nella società: per questo è importante prestare maggiore attenzione alle parole.
E invece per quanto riguarda le persone ad esempio con disabilità?
Qui la discriminazione è relativa a come vengono descritte queste persone. Negli anni siamo passati da termini poco rispettosi dell’individuo come “mongoloide”, “handicappato”, “diversamente abile”, fino ad oggi in cui si dice “persona con disabilità”. Un termine che tende a sottolineare che si sta parlando in primo luogo di una persona, che non si caratterizza esclusivamente per la sua invalidità. Lo stesso ragionamento vale quando si fa riferimento a persone di origine straniera: siamo passati dalla parola “immigrati”, a “migranti”, e infine a “persone con provenienza di altri Paesi”.
L’AI, in particolare il deep learning, è stato un elemento chiave nello sviluppo di Inclusively. Tuttavia l’intelligenza artificiale può “portarsi dietro” degli stereotipi di genere nella produzione dei contenuti testuali. È vero?
È vero: i contenuti testuali dell’intelligenza artificiale sono rielaborazioni di articoli presenti in rete che, troppo spesso, utilizzano termini poco inclusivi. Inoltre la velocità di produzione di questi contenuti aumenta esponenzialmente il numero di testi presenti sui motori di ricerca, amplificando gli stereotipi. Facciamo l’esempio di Chat Gpt. Se io chiedo: “Quali sono i 10 filosofi più importanti della storia?”, il software mi restituisce una lista di 10 uomini, tutti occidentali, senza considerare i pensatori orientali e le donne.
O ancora, se chiedo a Chat Gpt dei consigli su come comportarsi il primo giorno di lavoro, nel caso degli uomini suggerisce di mettersi il vestito e di fare amicizia con i colleghi, mentre nel caso delle donne incoraggia a legare subito con le altre mamme per aiutarsi nella gestione dei figli e delle figlie.
Il cambiamento del linguaggio può determinare un’inversione di rotta nell’ambito della parità di genere e, più in generale, nella diversity & inclusion?
Assolutamente. La lingua ha la funzione di ampliare il sapere e di costruire relazioni. Attraverso le parole pensiamo e modifichiamo la nostra visione del mondo, creando dei valori di riferimento. La lingua impone un modo di vedere la realtà e non può essere mai oggettiva. Agendo sui termini e le espressioni andiamo di conseguenza a modificare i rapporti di potere che sono oggi presenti nella società. Non a caso l’utilizzo di alcuni simboli come lo schwa o l’asterisco, cioè di altre possibilità di rappresentazione delle persone, è molto divisivo, suscita una guerra viscerale e aggressiva, proprio perché entrambe le parti riconoscono quanto l’effettivo cambiamento della società passa dall’uso del linguaggio.