Sketchin

AI beyond bias: Inclusive design nell’era dell’AI generativa

L’intelligenza artificiale sta trasformando il nostro modo di vivere e lavorare. Se da un lato promette innovazione, dall’altro deve essere un motore di inclusione, non di disuguaglianze. Solo un design consapevole e una guida etica possono garantirne equità e accessibilità, facendo dell’inclusione un principio fondamentale dello sviluppo tecnologico.

Stefania Berselli, Maria Grazia Cilenti
Executive Design Director, Design & Inclusion Director

27.02.2025 - 10 min di lettura
Mani umane che si fondono in forme astratte e particelle, evocando connessione, trasformazione e diversità.

L’intelligenza artificiale ha ormai permeato ogni aspetto della nostra quotidianità: organizza il nostro tempo, filtra le informazioni, modella il nostro intrattenimento, ci aiuta nei task e persino influisce sulle nostre opportunità lavorative. Questa integrazione sempre più profonda porta con sé non solo progressi tecnologici, ma anche responsabilità significative. Ci troviamo di fronte a un paradosso: i nostri sistemi di AI spesso ereditano, e in alcuni casi aggravano, pregiudizi radicati nella società.

Non si tratta di semplici glitch tecnici: quando Google Photos etichetta erroneamente persone nere come “gorilla”, amplificando insulti razzisti, o quando gli assistenti vocali, attraverso voci femminili di default che perpetuano stereotipi di genere in cui la donna ricopre ruoli di cura e sostegno, assistiamo alla cristallizzazione algoritmica di bias, incorporati nei dati di addestramento e nei processi di validazione, derivanti dalle dinamiche sociali.

La vera innovazione nel design dell’AI risiede nella capacità di trasformare questa sfida in opportunità. L’intelligenza artificiale, se guidata da principi di design inclusivo, può diventare uno strumento potente per abbattere barriere e creare esperienze digitali universalmente accessibili. Oltre all’uso di dati diversificati, è cruciale considerare anche il punto di vista dell’AI stessa, specialmente quando viene utilizzata attraverso i prompt. La formulazione della richiesta incide direttamente sui risultati ottenuti: un’intelligenza artificiale non progetta spontaneamente soluzioni accessibili e inclusive, è necessario guidarla esplicitamente in quella direzione.

La chiave, quindi, sta nell’adozione di quello che possiamo definire un “modello ibrido”, dove l’intelligenza umana (HI) e quella artificiale (AI) collaborano sinergicamente. L’AI può aumentare l’efficienza, migliorare la qualità del lavoro e accrescere le nostre attuali skill, ma è fondamentale che il nostro ruolo e il coinvolgimento delle persone rimanga centrale nel processo decisionale.

In questo framework, l’AI funge da collaboratore sofisticato durante tutto il processo di progettazione: dalla ricerca iniziale all’implementazione finale. L’AI può analizzare rapidamente vasti set di dati e generare numerose idee, mentre il valore della Human Intelligence è insostituibile in aspetti critici come arricchire i dati con la diversità dei punti di vista, criticare e validare i risultati e le soluzioni proposte, usare l’intelligenza emotiva e guidare l’innovazione. La nostra responsabilità è garantire che l’adozione dell’AI sia guidata dall’ascolto attivo delle persone, integrando le loro esigenze, prospettive e diversità in ogni fase della progettazione. Solo coinvolgendole direttamente nella progettazione, attraverso dialogo e ricerca, possiamo trasformare la tecnologia in un vero strumento al servizio dell’umanità.

Questo approccio diventa particolarmente cruciale quando consideriamo i limiti dell’AI, in particolare nella user research e nei test validativi. Gli utenti sintetici, generati attraverso modelli di machine learning basati su grandi set di dati, offrono l’allettante promessa di feedback rapidi e scalabili. Tuttavia, faticano a catturare le sfumature cruciali dell’esperienza umana, specialmente quando si tratta di comprendere le necessità di gruppi sottorappresentati o marginalizzati. Questi utenti sintetici non possono replicare l’imprevedibilità umana né spiegare il ragionamento emotivo dietro le loro scelte, ma riproducono i pattern dominanti presenti nei dati di addestramento, creando un ciclo di feedback che rischia di perpetuare le stesse esclusioni che dovremmo cercare di eliminare: per questo è fondamentale progettare con le persone per abilitare la riduzione delle discriminazioni.

I dati sono il cuore pulsante dell’AI, ma nascondono un’insidia: possono essere sia uno strumento di inclusione che un meccanismo di discriminazione. Come sottolinea Donata Columbro, esperta di dati e comunicazione:

L’algoritmo in sé non discrimina: i pregiudizi emergono dai dati e dalle ipotesi che vi inseriamo. Queste decisioni basate sui dati influenzano tutto, dalle politiche pubbliche alle dinamiche del posto di lavoro ai servizi digitali, ma non sono dati neutri: riflettono le disuguaglianze e i pregiudizi della società.

Donata Columbro, giornalista e scrittrice

Questa consapevolezza è fondamentale: nessun dataset è neutrale, perché riflette le strutture di potere e le disuguaglianze esistenti nella società. Se i dati sono distorti, lo sarà anche l’AI che su di essi viene addestrata. E poiché l’AI prende decisioni che incidono sulle nostre vite, dall’accesso ai servizi sanitari ai percorsi di carriera.

Un caso emblematico è quello di un algoritmo di triage sanitario negli Stati Uniti che assegnava priorità più basse ai pazienti neri perché si basava sulla spesa sanitaria storica come indicatore di bisogno medico. Poiché le persone nere tendevano a spendere meno a causa di disuguaglianze strutturali, il sistema finiva per escluderle ingiustamente da cure essenziali.

Aurora Mititelu esplora il machine learning come una simbiosi uomo-macchina, sottolineando la necessità continua dell’intervento umano nell’arricchimento dei dati, nella progettazione degli algoritmi e nella governance.

Come possiamo quindi costruire un futuro più inclusivo?

La soluzione risiede in un approccio metodico e consapevole che inizia dall’utilizzo dell’AI come punto di partenza per l’esplorazione, non come arbitro finale delle decisioni. Questo significa costruire pipeline di dati più rappresentative, implementare processi di validazione rigorosi che includano diverse prospettive, e mantenere un dialogo costante con le comunità che i nostri prodotti intendono servire. La creazione di team veramente multidisciplinari diventa fondamentale, poiché solo attraverso la diversità di prospettive possiamo identificare e correggere i bias prima che si cristallizzino nei nostri sistemi.

L’inclusione, nei processi e nelle esperienze abilitate dall’AI, non è un obiettivo che possiamo raggiungere una volta per tutte, ma un processo continuo di apprendimento, adattamento e miglioramento. Richiede un impegno costante nel mantenere una supervisione critica, nell’esaminare regolarmente i nostri output per identificare possibili esclusioni, e nel validare sempre i nostri risultati con utenti reali provenienti da contesti diversi.

Mentre ci troviamo a questo crocevia tecnologico, la scelta che abbiamo davanti è chiara: possiamo permettere all’AI di amplificare le disuguaglianze esistenti, o possiamo guidarla consapevolmente verso la creazione di un futuro più equo e inclusivo. 

La tecnologia è uno strumento potente, ma sarà la nostra guida etica e la nostra visione inclusiva che determineranno il suo impatto sulla società. L’inclusione non è un risultato casuale, ma una decisione consapevole che va integrata in ogni fase del design. Il futuro dell’AI si costruisce attraverso le scelte di oggi: combinando empatia e intelligenza umana con le capacità analitiche dell’AI, possiamo sviluppare tecnologie realmente accessibili, capaci di rispondere alle esigenze di tutte le persone, indipendentemente da background, capacità o condizioni.

L’inclusione è una scelta, e lo è anche l’esclusione. La differenza risiede nella nostra visione, responsabilità e volontà di agire con consapevolezza.