I sistemi intelligenti sono programmati per processare i valori numerici e non capiscono i valori o la morale. Con la definizione di criteri e principi, si cerca di responsabilizzare l’Intelligenza Artificiale.

 

Come funziona l’Intelligenza Artificiale

L’Intelligenza Artificiale è programmata per svolgere un compito ben preciso in modo veloce ed efficiente, alleggerendo spesso il lavoro dell’uomo, divenendo per lui un utile alleato.

 

I sistemi intelligenti sono ad esempio in grado di analizzare una ingente mole di informazioni e di documenti, estrapolando da essi i dati essenziali o individuando particolari correlazioni. Ovviamente, anche l’essere umano è in grado di raggiungere questo risultato, ma con maggiore sforzo e tempo impiegato.

 

L’Intelligenza Artificiale è incentrata su specifici algoritmi, elaborati per fare in modo che un certo incarico venga svolto dal sistema.

Di conseguenza, le macchine intelligenti sono programmate per prendere una decisione utilizzando uno schema ben preciso e basandosi su informazioni chiare e obiettive.

 

Si aprono dunque diversi interrogativi sulla morale e l’etica dell’Intelligenza Artificiale e su come i sistemi intelligenti possano essere responsabilizzati.

 

 

Etica: un concetto sfuggente, non facilmente definibile

L’Intelligenza Artificiale è programmata per risolvere un problema in modo razionale, fornendo una risposta logica attraverso l’elaborazione delle informazioni a disposizione.

 

Nella vita quotidiana emergono però situazioni che è difficile valutare in modo univoco.

Ci sono concetti che non è semplice razionalizzare, o definire. Ad esempio, è complesso descrivere le caratteristiche che una condotta deve avere per essere ritenuta etica.

 

L’essere umano affronta spesso l’incertezza affidandosi all’istinto. Al contrario, i sistemi intelligenti si trovano di fronte a un bivio e la soluzione da loro offerta potrebbe risultare erronea, o distorta.

 

 

L’Intelligenza Artificiale non è obiettiva

Per le sue capacità e potenzialità, l’Intelligenza Artificiale viene spesso supposta come un sistema infallibile e neutrale.

Questa credenza nasce da una errata convinzione: l’A.I prende le decisioni basandosi su elementi razionali e non su emozioni, quindi le sue scelte sono obiettive.

 

In realtà, i sistemi intelligenti sono spesso poco trasparenti ed è quindi difficile capire su quale base i dati vengano discriminati.

 

 

Le distorsioni dell’Intelligenza Artificiale: discriminazione e razzismo

L’Intelligenza Artificiale è fortemente influenzata dal tipo di informazioni utilizzate per programmare il sistema.

Di conseguenza, se i dati sono affetti da errori (magari legati ai pregiudizi del programmatore), o a distorsioni storiche, culturali o sociali, il sistema prenderà decisioni sbagliate.

 

Una ricerca del 2017 ha dimostrato come l’Intelligenza Artificiale possa prendere delle decisioni razziste e discriminatorie.

 

Una premessa: i sistemi intelligenti utilizzano un approccio statistico. Di conseguenza, leggono le parole attribuendo loro un significato positivo o negativo a seconda dei termini che, in genere, accompagnano queste parole.

 

Nella ricerca è emerso che l’Intelligenza Artificiale associava nomi di persona europei a termini positivi, mentre i nomi africani venivano associati a espressioni negative.

 

Di conseguenza, nell’utilizzo dei sistemi intelligenti nei processi di selezione, potrebbe accadere che l’Intelligenza Artificiale (spesso utilizzata per una prima scrematura) finisca per scriminare le candidature a favore dei nomi più europei.

 

L’Intelligenza Artificiale inizia però ad essere utilizzata anche in ambito bancario. Quindi, per lo stesso principio, il sistema potrebbe essere più propenso a concedere un prestito, o a un mutuo ad una persona con un nome europeo.

 

 

I criteri da rispettare per progettare un’Intelligenza Artificiale etica

Secondo Nick Bostrom, professore della facoltà di Filosofia ad Oxford, l’Intelligenza Artificiale per essere etica, deve rispettare alcuni criteri:

gli algoritmi devono essere trasparenti, ovvero facilmente ispezionabili.

Questo permetterebbe di capire perché l’Intelligenza Artificiale ha preso una determinata decisione dinanzi a una richiesta, o un problema;

 

gli algoritmi devono essere prevedibili, ovvero accompagnati da una chiara spiegazione dei loro risultati;

 

i sistemi intelligenti devono essere sicuri, ovvero non devono essere manipolabili da terzi con intenzioni malevole

 

definire chiaramente il referente di un certo sistema intelligente, in modo tale da avere un chiaro punto di riferimento al quale rivolgersi in caso di problemi.

 

Intelligenza artificiale etica

Immagine di Gerd Altmann da Pixabay

 

I principi della Commissione europea per un’Intelligenza Artificiale etica

La Commissione europea ha pubblicato un codice etico per l’Intelligenza Artificiale.

Nel documento si sottolinea la necessità di un approccio antropocentrico all’A.I. Questo significa che i sistemi intelligenti vengono individuati come un mezzo attraverso il quale migliorare il benessere dell’uomo.

 

Infatti, i sistemi intelligenti vengono identificati come un importante strumento per affrontare sfide attuali e globali, come la salute e i cambiamenti climatici.

 

A questo proposito, la Commissione europea ha identificato sette principi che l’Intelligenza Artificiale deve rispettare per essere etica e affidabile:

azione e sorveglianza umana: i sistemi intelligenti devono supportare l’uomo nella vita quotidiana e non ridurne l’autonomia;

robustezza e sicurezza: gli algoritmi devono essere sicuri e affidabili;

riservatezza e governance dei dati: i cittadini devono essere consapevoli dei dati condivisi e utilizzati. Bisogna inoltre evitare che queste informazioni vengano utilizzate per lederli;

trasparenza: tracciabilità dei sistemi intelligenti;

diversità, non discriminazione ed equità: i sistemi intelligenti devono essere accessibili a tutti;

benessere sociale e ambientale: l’AI dovrebbe supportare la sostenibilità e la responsabilità ecologica;

accountability: ovvero garantire la responsabilità dell’AI e dei risultati prodotti.

 

 

Tradurre l’etica in algoritmo: nasce l’Algor-Etica

L’Intelligenza Artificiale è una nuova tecnologia dalle grandi potenzialità e in rapido sviluppo, costretta a scontrarsi con una società che si muove più lentamente.

 

I sistemi intelligenti sono programmati per prendere le loro decisioni utilizzando valori numerici.

Di conseguenza, bisogna trasformare anche l’etica in qualcosa di comprensibile per l’Intelligenza Artificiale.

 

Si apre dunque il filone dell’algor-etica, basata sull’idea di poter tradurre valori e principi in linguaggio binario.

 

Così facendo, in particolari situazioni l’Intelligenza Artificiale potrebbe vacillare e una decisione verrebbe presa grazie all’intervento umano.

 

 

Fonti:

Bostrom N. (2011), The Ethics of Artificial Intelligence.