La nuova frontiera dell’intelligenza artificiale è l’etica
di Andrea Barchiesi in: Focus•News
21 Luglio 2019 • 5 min
La sfida è far sì che le macchine non prendano decisioni discriminatorie o moralmente riprovevoli. La questione però non può essere risolta solo attraverso la tecnologia, né solo attraverso la prospettiva umanistica. È necessaria una convergenza multidisciplinare di saperi.
La mia rubrica su
Lettera43:
Ogni giorno, senza neanche rendercene conto,
deleghiamo molte
decisioni a una
macchina. Pensate alla
guida autonoma, ai
sistemi di sicurezza, alla
domotica. Ogni giorno, senza rendercene conto,
subiamo molte decisioni prese da una macchina che modificano il corso della
nostra percezione e perfino della nostra
vita. Le
notizie che vediamo scorrere sui
social network (preselezionate dal social sulla base dei nostri comportamenti passati), la
musica che ascoltiamo da una
playlist predefinita, un
mutuo negato dalla banca sulla base di un
algoritmo che valuta i buoni e i cattivi pagatori. Le decisioni implicano sempre una scelta tra alternative, le ragioni alla base di questa scelta implicano sempre un
approccio etico. In sostanza,
fare la cosa giusta.
INSEGNARE L’ETICA ALLE MACCHINE
Da anni, tra le questioni più urgenti per chi si occupa di
intelligenza artificiale c’è quella di insegnare l’
etica alle macchine affinché gli algoritmi non prendano
decisioni discriminatorie o moralmente
riprovevoli. Per esempio, tornando agli esempi citatati, negare un mutuo su basi etniche o di genere o, nel caso di un’auto a guida autonoma, imporle di finire fuori strada invece di investire qualcuno. Siamo nell’era delle macchine che correggono altre macchine. Insegnare loro a prendere decisioni, a discernere da sole il
bene dal
male in determinate situazioni implica infatti che, proprio come gli esseri umani, le macchine possano
commettere degli errori. E che abbiano bisogno di essere corrette prima ancora di compiere l’errore.
I SISTEMI CORRETTIVI E L’INTELLIGENZA ARTIFICIALE
Pochi giorni fa un siciliano che vive a Vienna si è visto recapitare dall’
app ufficiale di McDonald’s questo messaggio: «Hey mafioso, try our new bacon della Casa now. Bella Italia!» e, indignato, ha subito protestato contro l’azienda sollevando il caso sui media. McDonald’s si è scusata spiegando che si è trattato di un errore di
traduzione dalla parola tedesca
mamfen che significa goloso. Per evitare o ridurre al minimo questi errori, i cosidetti
bias degli algoritmi, l’intelligenza artificiale sta lavorando su
sistemi correttivi,
software capaci di correggere altri software, anzi di indicare loro la strada eticamente più corretta prima che commettano un clamoroso sbaglio.
AUTO APPRENDIMENTO E RISCHI
Oggi lo
scenario fantascientifico descritto nel 2001 da
Steven Spielberg in
A.I. – Intelligenza artificiale fa quasi sorridere, sembra preistoria. La questione etica nell’intelligenza artificiale è un enorme problema e, a ben vedere, è essa stessa soggetta a un
gigantesco bias. Infatti, è proprio la caratteristica più apprezzata nei sistemi di intelligenza artificiale, ovvero la
capacità di imparare da soli, la causa principale della difficoltà di controllarli. È rimasto impresso nella memoria di molti, il caso nel 2017 dei due robot che, durante un esperimento di Facebook, hanno iniziato a parlare tra loro una
lingua incomprensibile per gli umani. La cosa destò talmente tanta inquietudine che i ricercatori decisero di sospendere l’esperimento. Si scoprì poi che il fenomeno era dovuto semplicemente a un
errore di programmazione, a causa del quale le macchine riuscirono a modificare la lingua inglese per semplificare la comunicazione tra loro.
I SOFTWARE NON BASTANO A GARANTIRE CHE LE SCELTE SIANO CORRETTE
Anche se la spiegazione alla stranezza dell’evento era tecnicamente piuttosto semplice e descriveva un meccanismo già osservato in passato dagli addetti ai lavori, in quell’occasione nella
comunità scientifica si levarono alcune voci per sottolineare che la
robotica, per quanto sia una enorme
opportunità, costituisce anche un
pericolo, proprio per le sue
implicazioni etiche e sociali, e trascurare questo aspetto equivale a mettere la testa sotto la sabbia.
Software e
tool da soli non bastano a garantire che le scelte compiute dalle macchine siano sempre eticamente corrette.
LA CREAZIONE DI UN ECOSISTEMA INFORMATIVO PIÙ ETICO
Se insegnare alle macchine a comportarsi eticamente appare ancora piuttosto problematico, d’altro canto utilizzare l’intelligenza artificiale per rendere più etico un ambiente o un
ecosistema informativo, come per esempio un social network, sembra una strada più percorribile, per quanto complessa. Il
Financial Times, per esempio, ha introdotto programmi automatici per avvertire i
giornalisti quando non rispettano la
parità di genere e quando negli articoli il
punto di vista femminile è inferiore rispetto a quello maschile.
Instagram sta sperimentando un sistema automatico per scoraggiare il
cyberbullismo: quando il potenziale bullo, identificato dall’algoritmo, sta per postare un commento offensivo il social network gli invia una notifica con l’obiettivo di dissuaderlo dal pubblicarlo. Se il bullo decide di perseverare nella sua azione lesiva, l’algoritmo isolerà i suoi post in modo che vengano ignorati. Anche questo sistema non è ovviamente esente da errori, anzi.
L’ADDESTRAMENTO DELL’ALGORITMO
Per addestrare l’algoritmo a essere sempre più preciso ed efficace nell’identificazione del
soggetto violento, Instagram chiede una mano agli utenti che possono
segnalare i casi in cui l’algoritmo sbaglia. Attenzione perché anche in questo ultimo passaggio, l’errore è dietro l’angolo. Come abbiamo già visto accadere con le
fake news su Facebook, il
sistema di segnalazione affidato agli utenti, inesperti e non informati su tutto, può risultare ugualmente fallace. Come se ne esce quindi?
L’IDENTIFICAZIONE DELLE FAKE NEWS
C’è una terza via per utilizzare l’intelligenza artificiale in modo etico. Per quanto riguarda
contenuti lesivi,
diffamatori o fake news possono essere progettati sistemi di identificazione, analisi e
contrasto diretto che supportino l’azione imprescindibile di professionisti ed esperti. Per il
ministero della Salute abbiamo sviluppato un sistema denominato
Fake Content Mitigation per l’identificazione su tutto il
web e il contrasto diretto alle fake news sui
vaccini. L’algoritmo lavora attraverso un
modello concettuale e
semantico strutturato per riconoscere questi contenuti su tutta la Rete, cristallizza la prova online attraverso un tool di
web forensics che ne attesta il
valore legale e viene in fine
certificata da un comitato di esperti del ministero. Certificati alla mano, viene strutturato un piano di
moral suasion e richieste di rimozione dei contenuti fake direttamente ai
canali che le hanno pubblicate. Questo processo può essere applicato a qualunque settore (pensiamo a tutte le fake news che circolano in campo alimentare o in politica) e mostra che serve un
approccio integrato, che faccia lavorare insieme tecnologia ed esperienza specialistica sui temi. La questione etica della tecnologia non può essere risolta solo attraverso la tecnologia. Né solo attraverso la
prospettiva antropologica,
filosofica o
sociologica. È necessaria una
convergenza multidisciplinare di saperi.