To Homepage
Società

Un’intelligenza artificiale equa per le persone con disabilità

Estendere l’inclusione al mondo dell’intelligenza artificiale

Estendere l’inclusione al mondo dell’intelligenza artificiale

Sempre più compagnie adottano l’intelligenza artificiale (IA) per abbattere i costi operativi e migliorare l’efficienza. Le banche si avvalgono del’IA per individuare i casi di frode. Le cliniche la usano come ausilio per le analisi dei pazienti. I reclutatori si affidano all’intelligenza artificiale per individuare candidati dal forte potenziale.

I dubbi sorgono quando l’intelligenza artificiale è utilizzata nei processi decisionali. Possiamo davvero essere sicuri che l’IA prenda le decisioni giuste per tutti? E quanto può influenzare l’intelligenza artificiale le decisioni che prendiamo noi stessi?

Come funziona l’apprendimento automatico

Un termine che vediamo spesso associato all’intelligenza artificiale è quello dell’apprendimento automatico. In questo processo i dati vengono immessi in un computer che ne riconosce le interconnessioni. Riconoscendo questi collegamenti, il computer migliora o crea algoritmi e li applica per analizzare i dati futuri. Questo dovrebbe aiutarlo a prendere decisioni più precise e quindi migliori - in teoria.

Uno dei motivi per cui l'IA sta diventando una soluzione commerciale sempre più diffusa è che i computer possono elaborare grandi quantità di dati e fornire un feedback immediato molto più velocemente di quanto possano farlo le persone. Si risparmia tempo e denaro. Se il sistema AI è impostato correttamente, si evitano anche errori umani e i pregiudizi ad essi collegati.

brille vor laptopmonitor

L’AI restituisce analisi immediate. Ma può anche evitare pregiudizi e prendere decisioni eque?

“Correttamente” è la parola chiave in questo processo, poiché i computer non possono pensare come gli esseri umani. Dipendono infatti dai dati che forniamo per simulare processi dell’intelletto umano come la generalizzazione e la soluzione dei problemi. Quindi, se impostata in modo erroneo, l’IA può addirittura contribuire a rafforzare gli stereotipi della nostra società.

Pregiudizi e discriminazione dell’IA

I pregiudizi dell’intelligenza artificiale possono assumere molte forme. Secondo un articolo scritto da Shari Trewin della IBM Accessibility Research, un sistema può presentare dei pregiudizi se i dati utilizzati per il suo apprendimento si basano a loro volta su decisioni umane dettate da pregiudizi. Ad esempio, se dei reclutatori trascurano sistematicamente le candidature di lavoro delle persone con disabilità, un sistema AI addestrato su quei dati imiterà e trascurerà queste candidature anche in futuro.

La mancanza di rappresentatività nei set di dati rappresenta un altro fattore cruciale per raggiungere l'equità dell'IA. Le disabilità e le condizioni di salute ivi associate variano molto in intensità e impatto, e spesso cambiano nel tempo. Questa eterogeneità della disabilità rende più difficile addestrare un sistema di intelligenza artificiale ad essere equo con le persone con disabilità tanto quanto per le persone di sesso o etnie diversi.

frau und rollstuhlfahrer vor podcast

Costruire set di dati rappresentativi per raggiungere l'equità dell'AI per le persone con disabilità rappresenta un compito difficile a causa dell'eterogeneità della disabilità. (Fonte: https://mockmate.com/)

Inoltre, i pregiudizi possono verificarsi a seconda del modo in cui gli algoritmi sono progettati. Nel 2019, una società di tecnologia di reclutamento e il suo sistema di AI, utilizzato da più di 100 datori di lavoro tra cui imprese internazionali, hanno sollevato serie preoccupazioni sulla discriminazione. Secondo un rapporto del Washington Post, i movimenti facciali dei candidati, la scelta delle parole e la voce vengono analizzati tramite la telecamera del computer o del telefono. Queste analisi contribuiscono al punteggio di impiegabilità generato dal sistema AI per la selezione.

Alcuni esperti di etica dell’intelligenza artificiale hanno avanzato delle critiche affermando che un simile algoritmo non è altro che pseudoscienza: è estremamente difficile trarre conclusioni sulle emozioni e sui tratti di personalità dalle espressioni facciali, soprattutto quando si tratta di persone con disabilità, che vivono condizioni diverse e in perenne cambiamento. L'utilizzo di un tale sistema di IA per la selezione dei candidati al lavoro significherebbe che le persone con certe disabilità verrebbero immediatamente scartate dal sistema.

Rendere l'IA più equa per le persone con disabilità

Quindi, dopotutto, i pregiudizi dell’intelligenza artificiale trovano origine negli umani. Sebbene la vita sia spesso ingiusta, potremmo cercare di mitigare questi pregiudizi almeno nei sistemi di intelligenza artificiale affinché tutti siano trattati con il medesimo livello di equità.

waage mit computer und doktor

L'equità dell'AI per le persone con disabilità è importante anche perché sempre più decisioni mediche vengono prese con l'aiuto dei suoi algoritmi. (Fonte: https://news.mit.edu)

L’inclusione rappresenta un passo fondamentale per raggiungere l’equità nell’IA. Le persone con disabilità dovrebbero essere coinvolte nello sviluppo dei sistemi IA sin dalle primissime fasi. Le loro esperienze dirette possono infatti aiutare gli sviluppatori dell’intelligenza artificiale a individuare i pregiudizi, contribuendo così a creare algoritmi più obiettivi e giusti al servizio dei processi decisionali.

Al contempo dovremmo avvalerci dell’intelligenza artificiale in modo più accorto. In un’intervista sull’IA e la salute, Kerstin N. Vokinger, Professore assistente alla Facoltà di legge dell’Università di Zurigo, ha affermato:

“L’intelligenza artificiale non è più intelligente di noi. Ma quando si combina con le nostre competenze, può aprire la strada a nuove opportunità.”

Non dovremmo né temere né affidarci troppo all’IA. Dovremmo invece cercare di creare delle misure che creino algoritmi spiegabili, verificabili e trasparenti.

In un’intervista sull’intelligenza artificiale e i relativi pregiudizi, Anikó Hannák, Professoressa assistente al Dipartimento di informatica dell’Università di Zurigo, sottolinea l’importanza di applicare le medesime regole contro la discriminazione tanto online come nel mondo reale. Un monitoraggio costante dell’utilizzo dell’intelligenza artificiale potrebbe contribuire a migliorarne l’equità. Aggiunge però:

“Molte società ottimizzano le proprie piattaforme online per generare profitto, e l’equità rimane spesso in sottofondo.”

Monitorare il grado di equità di un sistema d’intelligenza artificiale comporta un dispendio monetario: alcune compagnie non possono semplicemente permettersi un monitoraggio costante, mentre ad altre manca la motivazione o la consapevolezza per farlo.

Ci sono anche buone notizie: stanno venendo applicate diverse misure per superare questi problemi. L'UE sta attualmente investendo molto nello sviluppo di sistemi che controllano l’equità dell'intelligenza artificiale, lavorando al contempo sulla regolamentazione e la punizione delle attività di abuso dell'IA. Per esempio, Google è stata condannata per aver distorto la concorrenza nel 2019 perché la piattaforma ha favorito i propri prodotti nei suoi stessi risultati di ricerca.

Guadagnare la fiducia attraverso la trasparenza

Un altro grande passo per raggiungere l'equità in quest’ambito consisterebbe nel migliorare la trasparenza dello sviluppo dei sistemi d’intelligenza artificiale. Per esempio, le aziende dovrebbero rendere pubblicamente noto in che misura e come usano l'IA per il proprio processo decisionale. La trasparenza aiuta gli utenti che si avvalgono dell’intelligenza artificiale, specialmente quelli con disabilità, a non essere discriminati e raggirati.

Ma ora torniamo alla domanda: possiamo davvero affidare all’intelligenza artificiale decisioni che spetterebbero a noi? Bradley Hayes, Professore assistente in Scienze informatiche all’Università di Colorado Boulder, risponde a questa domanda proponendo il modello dell’IA spiegabile in questo TEDx Talk.

“Rendendo spiegabili i nostri robot e sistemi d’intelligenza artificiale, siamo anche in grado di capire quando hanno appreso le regole corrette e se possiamo fidarci di loro. Quando possiamo colmare il divario tra il nostro modo di pensare e quello dei sistemi IA, saremo anche sicuri di poter inventare il futuro che vogliamo.”

Cosa ne pensate dell’intelligenza artificiale? Ci vedete più rischi o benefici?

Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva