La tecnologia che dovrebbe liberarci dai pregiudizi rischia invece di cristallizzarli per sempre nel codice. È questo il paradosso sollevato durante il Pink Mobility Day di Milano, l'evento organizzato da LabSumo in collaborazione con Best Mobility, Bt Lounge e il patrocinio di Aniasa, Gbta Italia, Unrae e Valore D. Nel dibattito dedicato a intelligenza artificiale e discriminazione nel lavoro, esperti e imprenditrici hanno lanciato un allarme: mentre l'Italia corre a prendere il treno della GenAI, rischiamo di farvi salire anche i nostri vecchi difetti culturali.

I numeri dicono che siamo in piena corsa verso questa transizione digitale. Secondo l'Osservatorio AI del Politecnico di Milano, sette aziende italiane su dieci tra le grandi realtà aziendali hanno già iniziato a sperimentare con l'intelligenza artificiale. Più significativo ancora: il 53% delle società di grandi dimensioni ha già investito in licenze di strumenti generativi per aumentare la produttività personale, una percentuale che supera quella di Francia, Germania e Regno Unito. Ma il fenomeno non riguarda solo le aziende: quasi settanta percento degli italiani over 55 sfrutta questi sistemi per informarsi e approfondire, mentre la metà dei laureati li utilizza per migliorare le proprie performance professionali e accademiche.

Ma dietro questa corsa all'innovazione si nasconde un rischio concreto e ancora poco considerato. Il vero problema non è tanto che gli algoritmi possano sostituire il lavoro umano, quanto piuttosto che possano cristallizzare e moltiplicare i pregiudizi e gli stereotipi di genere che ancora oggi caratterizzano il nostro sistema economico patriarcale. Se i dati con cui addestriamo questi modelli sono già contaminati da visioni distorte della realtà, il risultato sarà un'infrastruttura digitale che riproduce e amplifica quelle distorsioni su scala ancora maggiore, per di più con l'aura di oggettività che spesso attribuiamo alle macchine.

Secondo quanto emerso dal dibattito milanese, la soluzione non è smettere di innovare, ma farlo con consapevolezza. È necessario integrare fin da subito principi di equità e inclusione nei processi decisionali che alimentano gli algoritmi, assicurando che chi sviluppa questi sistemi sia pienamente consapevole dei dati che utilizza. Raffaella Tavazza, vice presidente di Aniasa, ha sottolineato come la diffusione crescente dell'intelligenza artificiale sia una realtà già in corso e inevitabile, ma con una responsabilità enorme: "L'adozione dell'IA sta trasformando i processi decisionali aziendali, ma con il rischio concreto di perpetuare e amplificare i pregiudizi già presenti nei dati e nelle organizzazioni". La soluzione, secondo Tavazza, passa da una leadership consapevole che sappia orientare la tecnologia verso obiettivi di equità e inclusione, garantendo trasparenza nei modelli e basandosi su informazioni consapevoli.

In questo momento cruciale, in cui la tecnologia digitale sta per diventare la lente attraverso cui vedremo il mondo del lavoro dei prossimi decenni, le scelte che facciamo oggi sul design degli algoritmi e sulla composizione dei dati di addestramento avranno conseguenze enormi. Non si tratta solo di una questione etica, ma di come vogliamo che il futuro del lavoro sia costruito.