Assicuratore responsabile

Perché un’etica dell’IA è indispensabile

Come tutti gli strumenti rivoluzionari, l’IA può essere un’arma a doppio taglio: essa può offrire opportunità e soluzioni insperate fino a pochi anni fa in diversi settori, ma può anche avere ricadute di carattere economico ed etico, provocando nuove disuguaglianze e pregiudizi. Di qui la necessità di regolamentare uno strumento centrale nella nostra vita futura

Content Hub
Tempo di lettura: 2'00"

 

L’intelligenza artificiale (IA) domina ormai la nostra esistenza, ed è destinata a diventare sempre più uno strumento essenziale per la vita di tutti i giorni. Secondo un sondaggio Ipsos condotto nel 2023, il 49 per cento degli intervistati riteneva che i prodotti e servizi che si avvalgono dell'IA hanno cambiato profondamente la loro quotidianità negli ultimi 3-5 anni, e la percentuale sale al 66 per cento se si estende il periodo ai prossimi 3-5 anni. Una statistica che conferma l’importanza crescente che l’IA è destinata ad avere nel prossimo futuro.

Come tutti gli strumenti rivoluzionari, però, l’IA può essere un’arma a doppio taglio: da una parte, essa può offrire opportunità e soluzioni insperate fino a pochi anni fa in diversi settori, dalla politica all’economia, dai servizi al commercio, dalla formazione alla comunicazione, fino alla pubblica amministrazione, alla giustizia alla salute; dall’altra, però, l’IA rischia di avere ricadute di carattere economico ed etico, provocando nuove disuguaglianze e pregiudizi.

Privilegiare un approccio etico all’IA per ridurre al minimo i rischi

Un tema, quest’ultimo, messo in luce da Giuseppe Corasaniti nel suo articolo per il Bollettino GeneraliLa sfida etica dell'intelligenza artificiale”, che si sofferma sulla complessità dell’IA e sulla necessità di definire un’etica digitale dell’algoritmo. Le difficoltà tecniche di un tale processo, però, sono molteplici:

Le problematiche principali attengono alla trasparenza degli algoritmi, che spesso risultano difficili da ricostruire logicamente e da comprendere, sia per gli utenti che per i regolatori e persino per i programmatori esperti. Ciò rende anche difficile valutare il loro reale funzionamento, le loro motivazioni effettive, le vere criticità, che magari emergono dopo molto tempo dalla loro introduzione, e le possibili conseguenze, rendendo necessario adottare strumenti di spiegazione, documentazione e verifica”, afferma Corasanti.

Inoltre, tutti gli algoritmi possono influenzare decisioni importanti che riguardano diritti e interessi delle persone, ma anche la vita o la stessa sopravvivenza come ad esempio l’accesso al credito, alla salute, all’istruzione o alla giustizia. “Ogni algoritmo, come ogni calcolo – scrive ancora Corasanti –  può riprodurre o amplificare disuguaglianze e discriminazioni già presenti nella società civile o prodotte da metodi o selezioni di dati su cui si basano. (...) Un approccio etico all'IA è fondamentale nella progettazione, nello sviluppo e nell'uso di dati e algoritmi per massimizzare la creazione di valore sostenibile e ridurre al minimo i rischi per gli individui e la società”, conclude l’articolo.

L’importanza di una governance dell'intelligenza artificiale

Ottenere una corretta governance dell'intelligenza artificiale è dunque una delle sfide più importanti dei nostri tempi, che richiede un apprendimento reciproco basato sulle lezioni e sulle buone pratiche che emergono dalle diverse giurisdizioni in tutto il mondo.

Rientra in questo tentativo la creazione dell’Osservatorio globale sull'etica e la governance dell'intelligenza artificiale istituito dall’UNESCO sulla base della Raccomandazione sull'etica dell'intelligenza artificiale, adottata da 193 Paesi nel 2021. L'obiettivo dell'Osservatorio è quello di fornire una risorsa globale per i decisori politici, i regolatori, gli accademici, il settore privato e la società civile per trovare soluzioni alle sfide più urgenti poste dall'intelligenza artificiale.

Oltre a mostrare informazioni sulla prontezza dei Paesi ad adottare l'intelligenza artificiale in modo etico e responsabile, l’Osservatorio ospita il Laboratorio di etica e governance dell'intelligenza artificiale, che raccoglie contributi, ricerche, strumenti e buone pratiche su una serie di questioni relative all'etica dell'intelligenza artificiale, alla governance, all'innovazione responsabile, agli standard, alle capacità istituzionali, all'intelligenza artificiale generativa e alle neurotecnologie.

Il rischio di pregiudizi e discriminazioni

L'etica dell’IA è indispensabile perché l'intelligenza artificiale è pensata per aumentare o sostituire l'intelligenza umana; ma quando la tecnologia è progettata per replicare la vita umana, gli stessi problemi che possono offuscare il giudizio umano possono insinuarsi nella tecnologia stessa.

I progetti di intelligenza artificiale basati su dati distorti o inaccurati possono infatti avere conseguenze dannose, in particolare per gruppi e individui sottorappresentati o emarginati. Inoltre, se gli algoritmi di intelligenza artificiale e i modelli di apprendimento automatico vengono sviluppati troppo in fretta, può diventare ingestibile per ingegneri e product manager correggere i pregiudizi appresi.

Alcuni esempi: Lensa AI, AI ChatGPT, Amazon

È più facile incorporare un codice etico durante il processo di sviluppo per mitigare eventuali rischi futuri. Nel dicembre 2022, ad esempio, l'app Lensa AI ha utilizzato l'intelligenza artificiale per generare foto del profilo dall'aspetto cartoon dalle immagini normali delle persone.

Da un punto di vista etico, alcune persone hanno criticato l'app per non aver dato credito o abbastanza soldi agli artisti che hanno creato l'arte digitale originale su cui è stata addestrata l'IA. Secondo il Washington Post, Lensa è stata addestrata su miliardi di fotografie provenienti da Internet senza consenso.

Un altro esempio è il modello AI ChatGPT, che consente agli utenti di interagire con esso ponendo domande. ChatGPT scandaglia Internet alla ricerca di dati e risposte con una poesia, codice Python o una proposta. Un dilemma etico è che le persone usano ChatGPT per vincere concorsi di programmazione o scrivere saggi. Solleva anche domande simili a Lensa, ma con testo anziché immagini.

Ancora, nel 2018 Amazon è stata criticata per il suo strumento di reclutamento basato sull'IA che ha declassato i curriculum in cui comparivano “donne” (come "Women's International Business Society"). In sostanza, lo strumento di IA ha discriminato le donne e ha causato rischi legali per il gigante della tecnologia.

L'AI si basa su dati estratti da ricerche su Internet, foto e commenti sui social media, acquisti online e altro ancora. Mentre questo aiuta a personalizzare l'esperienza del cliente, ci sono domande sulla mancanza apparente di un vero consenso per queste aziende ad accedere alle nostre informazioni personali. Alcuni modelli di IA sono grandi e richiedono notevoli quantità di energia per l'addestramento sui dati. Mentre si sta conducendo una ricerca per ideare metodi per un'IA efficiente dal punto di vista energetico, si potrebbe fare di più per incorporare preoccupazioni etiche nelle politiche relative all'IA.

Creare un’IA più etica

In questo contesto, i quadri normativi possono garantire che le tecnologie avvantaggino la società anziché danneggiarla. A livello globale, i governi stanno iniziando a far rispettare le politiche per un'IA etica, incluso il modo in cui le aziende dovrebbero gestire le questioni legali in caso di pregiudizi o altri danni.

Ma c’è di più: rendere queste risorse più accessibili e promuoverne la comprensione da parte di chi le utilizza potrebbe trasformarle in validi alleati contro disinformazione, distorsioni e pregiudizi. Potrebbe sembrare controintuitivo usare la tecnologia per rilevare comportamenti non etici in altre forme di tecnologia, ma gli strumenti di intelligenza artificiale possono essere usati per determinare se un video, un audio o un testo sono falsi o meno, oltre a rilevare fonti di dati non etiche o distorsive della realtà. A patto di non trascurare formazione e informazione.