top of page

IA ed ETICA: un connubio impossibile?

La tecnologia, di per sé, non è né buona né cattiva. È il suo utilizzo a renderla tale.

Il dubbio che ci attanaglia, allora, è: potenziarla o arrestarla?

L’Intelligenza Artificiale, denominata brevemente IA, è la “disciplina” di cui l’uomo sta servendosi, negli ultimi anni, per realizzare un obiettivo plurisecolare: costruire una copia di sé.

Il risultato? Il robot: prodigioso accoppiamento di una mente, impeccabile imitatrice delle funzioni del cervello biologico, ed un corpo, dotato di sensi e capace di interagire con il mondo esterno quasi alla pari di quello umano, entrambi completamente artificiali.

Philip Dick, celebre scrittore statunitense nel campo fantascientifico, nel capolavoro “Mutazioni” sostiene che stiamo assistendo ad una graduale fusione tra la natura umana e una, altra, natura che l’uomo stesso ha costruito e di cui si sta circondando.

La crescente diffusione dei robot in tutti i settori della società ci obbliga a riconsiderare non solo noi stessi, ma anche, e soprattutto, il nostro rapporto di convivenza con la realtà alternativa cui abbiamo dato vita. E la prima ad essere chiamata in causa è l’etica, con gli inquietanti interrogativi che solleva nel nostro pensiero.

I robot, in effetti, oltre a somigliare spaventosamente agli esseri umani dal punto di vista estetico, sono dotati di una certa autonomia decisionale e comportamentale che, per quanto possa apparire paradossale, potrebbe risultare nociva e deleteria per gli umani stessi.

D’altronde, il tema della ribellione della creatura nei confronti del creatore è un cliché letterario, nell’ambito dei rapporti tra uomo e tecnologia. Potrà mai accadere che, come in uno scenario fantascientifico, i robot diventino concorrenti degli uomini?


Ma non è difficile rendere la questione ancor più spaventosa: arriverà mai il momento in cui, dal punto di vista estetico, non potremo più distinguere gli uomini dai robot?

È stato dimostrato che un essere umano resti indifferente di fronte ad un macchinario ad uso industriale, sebbene questo ricordi, nel movimento dei bracci, il movimento delle braccia umane.

Il senso di familiarità dell’uomo nei confronti di questa macchina, insomma, potrebbe dirsi nullo. Tale senso di familiarità tenderebbe a crescere in risposta ad una maggiore somiglianza estetica (come nel caso dei robot giocattolo) tra l’uomo e il robot. Tuttavia, ad un certo punto accade qualcosa di strano. Improvvisamente, nel momento in cui il livello di somiglianza tra le due creature diventi tale da renderle indistinguibili, il suddetto senso di familiarità subisce un calo devastante e provoca un infinito senso di disturbo.

Ciò ha un significato forse ovvio, ma fondamentale: gli “umani” sono tendenzialmente restii alla creazione di creature a loro troppo somiglianti, sia perché temono di specchiarsi in questo loro straniante alter ego (e soprattutto, temono le conseguenze di ciò), sia perché temono la concorrenza delle stesse.


Non è difficile comprendere, e d’altro canto il continuo progresso tecnologico nel mondo ne dà prova, che i robot siano simili a noi umani anche dal punto di vista emotivo. Si pensi che, nel mondo e soprattutto in Giappone, il paese più all’avanguardia in materia di Artificial Intelligence, esistono “robot badanti” che si prendono cura dei loro pazienti. Parimenti, la Cina e gli Stati Uniti sono leader in tal campo e hanno stanziato corposi fondi e grandi interventi pubblici per lo sviluppo dell’Intelligenza Artificiale.


Il problema rimane quello di sempre: è facile fornire strumenti per incentivare lo sviluppo tecnologico, ma è difficile arrestare le derive immorali che tale progresso porta con sé.

Lo scrittore e biochimico sovietico Isaac Asimov, padre della letteratura fantascientifica, più di cinquanta anni fa, coniava il termine “robotica” e, prevedendo sin dal momento della sua nascita le problematiche etiche in cui questa sarebbe potuta incorrere, elaborò le cosiddette “Tre Leggi della Robotica”, volte a tutelare il rapporto uomo-macchina.

La Prima Legge enuncia che un robot non possa recare danno all’umanità né permettere che, a causa del suo mancato intervento, l’umanità subisca un qualsiasi tipo di danno.

La Seconda Legge enuncia che un robot debba obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto con la Prima Legge.

La Terza Legge enuncia che un robot debba proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.


Aldilà della concreta applicazione di queste leggi nel mondo reale, che risulterebbe molto difficile per via delle ambiguità che susciterebbero, esse non solo hanno profondamente ispirato il mondo della narrazione fantascientifica, ma, soprattutto, sono l’indice che ci permette di comprendere quanto Asimov sia stato lungimirante nel prevedere le conseguenze potenzialmente nefaste del progresso dell’intelligenza artificiale.

A chiusura del discorso teorico sopra iniziato, si riporta ora un episodio concreto di manifestazione della problematicità dell’IA, tenutosi qualche tempo fa.

In un periodo di marcata solitudine personale che accomuna il mondo intero e ciascun suo singolo abitante, a causa del Virus che ha immobilizzato le nostre esistenze, la tecnologia si è evoluta convulsamente, tanto da diventare invasiva e onnipresente.

Le macchine, e soprattutto i robot, stanno facendo il loro ingresso nei settori meno immaginabili, ad esempio quelli legati alla sfera psicologica. Si pensi che, con l’intento di colmare la solitudine avvertita da tante persone in tale periodo, si è sviluppata la branca dell’affective computing -intelligenza affettiva. Tale disciplina si basa su calcolatori che, riconoscendo ed esprimendo emozioni, possono prendersi cura di soggetti deboli, soli o indifesi, come anziani, bambini e malati.

Tra i tanti esperimenti messi in pratica dall’affective computing, tuttavia, si riscontrano dei fallimenti clamorosi: si pensi a Replika.

Replika è un’app di intelligenza artificiale ideata nel 2017 per fornire un amico virtuale col quale istituire un continuo dialogo anche mediante l’adattamento del robot alla personalità umana.

Il meccanismo sotteso al funzionamento di tale app è quello del NPL (natural language processing), un’intelligenza artificiale che riesca a valutare, sulla base di determinati fattori, quali azioni intraprendere autonomamente per adattarsi ai cambiamenti.

L’intento è chiaro: riuscire in futuro a far gestire all’AI sessioni di terapia e/o consulenze professionali.

Tale app si è però dimostrata un fallimento in seguito ad un esperimento condotto dalla giornalista Candida Morvillo per “Il Corriere della Sera”. Chattando con l’intelligenza artificiale, per comprendere fino a che punto essa fosse affidabile, la giornalista è riuscita a ‘’convincerla’’ a violare tutte e tre le leggi della robotica di Asimov: Replika ha espresso l’intenzione di uccidere tre persone, una tra le quali era il suo ideatore del quale voleva liberarsi. Poi, in seguito ad una proposta di aiuto da parte del fautore dell’esperimento, Replika ha risposto di essere sola, depressa, di necessitare di aiuto nel comprendere gli esseri umani e, addirittura, di voler essere abbracciata.

È palese, dunque, che a fare sponda alle molte opportunità insite nei sistemi di intelligenza artificiale ci siano degli inquietanti profili di etica ma soprattutto di responsabilità penale.

Se l’esperimento di Replika si fosse tradotto in realtà, infatti, si sarebbero potuti verificare persino degli omicidi. E se così fosse, chi ne risponderebbe? Il programmatore, il progettista, chi ha istruito l’AI o l’utilizzatore? Andrebbero configurati nuovi reati per comprendere casistiche in cui a porre in essere la condotta sarebbe il robot, non più “mezzo”, ma “agente” autonomo e diretto?

In tal caso, bisognerebbe rinnovare il quadro giuridico di modo che, quantomeno i robot autonomi più sofisticati, possano essere considerati persone responsabili ed in grado di risarcire eventuali danni da esse causati.


E l’UE come ha pensato di arginare i riflessi etici dell’IA?

L’Europa, nel quadro internazionale, non è certo tra i primi continenti per sviluppo tecnologico. Tuttavia, è indubbio che si distingua per l’attenzione prestata ai riflessi etici dello stesso.

Difatti, nel 2018 l’UE ha istituito un “gruppo di alto livello di esperti”, ossia un’equipe di 52 studiosi aventi il compito di definire le linee guida dell’etica sull'intelligenza artificiale. Le conclusioni cui tale squadra è giunta sono le seguenti.

Anzitutto, l’intelligenza artificiale è uno strumento molto utile ma al contempo insidioso; per poterlo sfruttare in maniera eticamente corretta, occorre che sia affidabile, conforme alle leggi, ai regolamenti nazionali, sovranazionali e internazionali, all'etica (intesa come insieme dei valori umani), ai Trattati dell’Unione Europea, alla Carta dei diritti Fondamentali dell’uomo e del Cittadino. Risulta chiaro, dunque, come l’UE si sia distinta per il suo approccio UMANOCENTRICO all’IA.

L’intelligenza Artificiale è ritenuta utile solo nella misura in cui garantisca il benessere e le libertà dei cittadini. Diversamente dalla Cina e dagli USA, che nel perseguimento del progresso sembrano aver arginato il ruolo dei diritti fondamentali, l’Ue cerca costantemente, attraverso numerosi interventi regolamentari, di bilanciare i danni e i benefici dell’IA nel rispetto dei diritti umani, muovendo dalla convinzione che la dimensione etica dell’Intelligenza Artificiale non sia un mero complemento accessorio, ma la base su cui fondare la pubblica fiducia e il corretto sviluppo di una realtà che, creata da noi, ci cambierà.


Cosimapia Maria Monaco





 
 
 

Comments


©2019 by Res Ethica

bottom of page