HomeScenariLa scelta etica non è un algoritmo

La scelta etica non è un algoritmo

Leggi le riviste ⇢

Ti potrebbero interessare ⇢

La Redazione

È la frase con la quale Federico Faggin, il vulcanico fisico, inventore e imprenditore italiano che da più di 50 anni risiede negli Stati Uniti e a cui si devono i primi microprocessori e il touchscreen, ha concluso il suo intervento al convegno “Intelligenza artificiale e responsabilità dell’ingegnere”, organizzato dall’Ordine degli Ingegneri di Milano e dall’UNI, Ente Italiano di Normazione.

Lo stesso Ruggero Lensi, direttore generale dell’UNI e intervistatore per l’occasione, ha riconosciuto in questa dichiarazione il filo conduttore dei vari interventi che si sono succeduti durante l’evento, organizzato con lo scopo di riconoscere come le nuove frontiere raggiunte dall’intelligenza artificiale non possano ormai prescindere dal concetto di responsabilità del singolo, e dal fatto che la competenza etica debba ormai essere considerata necessaria, una vera e propria “soft skill dell’ingegnere”, come recita il sottotitolo del convegno.

Occorre dunque un nuovo tipo di ingegnere, che respiri anche una cultura umanista, cosa che Faggin ha riconosciuto essere molto più facile in Italia che nella Silicon Valley dalla fede transumanista.

Faggin si è accostato allo studio delle neuroscienze già nel 1986, fondando la propria società Synaptics, che intendeva sviluppare computer cognitivi emulando le reti neurali mediante l’utilizzo dell’elettronica analogica, dato che allora quella digitale non era allora ancora sufficientemente sviluppata.

Sono poi occorsi più di trent’anni per comprendere che i sistemi intelligenti non possono sviluppare ciò che caratterizza solo l’essere vivente e cioè la consapevolezza, la capacità di “osservare sé stessi da un proprio punto di vista”. Noi esseri umani possiamo infatti avere una esperienza senziente dei qualia (gli aspetti qualitativi delle esperienze coscienti), laddove il computer invece impara solo creando correlazione fra i dati, attraverso una trasformazione di simboli in altri simboli.

Ma l’etica non si basa su una trasformazione simbolica, bensì sulla comprensione, aspetto che secondo Faggin passa attraverso una combinazione di testa (intelligenza meccanica), pancia (intelligenza intuitiva e coraggio) e cuore (empatia e compassione): solo mediante l’armonizzazione di questi tre centri della conoscenza l’Uomo è in grado di possedere quell’aspetto spirituale che lo orienta verso la decisione etica.

Lo stesso libero arbitrio è guidato insieme dall’intelligenza meccanica, da quella intuitiva, dal coraggio, ad esempio di agire disobbedendo a poteri forti, e dall’empatia: il computer dunque impara certo da esempi e correlazioni, ma non ha capacità valoriali che lo guidino nelle scelte in caso di situazioni nuove. Sarà dunque etico se gli vengono forniti esempi etici da cui apprendere e non lo sarà altrimenti.

Al nuovo ingegnere viene dunque chiesto prima di tutto di essere una persona e di prendere decisioni non solo in base a calcoli o conoscenze, ma anche su basi etiche che non possono esimersi dalla scelta personale: un ingegnere che progetti armi più potenti di altre compie senz’altro, secondo Faggin, una violazione etica.

La responsabilità etica del singolo

Il concetto della responsabilità etica del singolo è stato ripreso anche dall’intervento di Sergio Cerutti, professore emerito di Bioingegneria del Politecnico di Milano e presidente dei comitati etici dello IEO e del Cardiologico Monzino.

Nel campo specifico della bioingegneria, ad esempio, sia la fase di archiviazione sia, soprattutto, quella di utilizzazione dei dati, non possono essere neutrali, ma dipendono strettamente da chi e come sono state progettate, aspetto da cui scaturisce l’importanza delle competenze etiche e del loro coinvolgimento e riconoscimento sin dalle prime fasi di un progetto.

Oggi, nel campo della bioingegneria, parliamo di necessità del cosiddetto “ethical design” per poter esercitare quella “sorveglianza umana” che appare più che mai necessaria per porre il soggetto umano al centro delle attenzioni di chi progetta apparecchiature e sistemi medicali. Un ruolo sempre più importante sarà in futuro svolto anche dai comitati etici che dovranno esaminare in modo multidisciplinare, e dunque con l’apporto di filosofi, medici, infermieri, i trial clinici.

L'intelligenza artificiale come supporto alle decisioni umane

Sempre nell’ambito della bioingegneria, Riccardo Bellazzi, professore ordinario di Ingegneria Biomedica dell’Università di Pavia, ha presentato la tematica dell’intelligenza artificiale come supporto alle decisioni umane di tipo diagnostico (per esempio tumore benigno o maligno e rischio di recidiva), terapeutico, di prognosi e di supporto/pianificazione strategica all’interno dei contesti di cura. L’intelligenza artificiale, per lo più nell’ambito dell’interpretazione delle immagini, interviene in questo caso nella costruzione automatica di regole decisionali.

Queste tecnologie, ormai parte delle nuove apparecchiature diagnostiche che vengono commercializzate, riescono a ricavare una distribuzione di probabilità sulla tipologia patologica attingendo ad una ricca banca dati e potendo discriminare fra un gran numero di malattie diverse, ma non sono scevre da controversie, come nel caso dell’inglese Babylon, un'applicazione che integra uomo e algoritmo per sostituire il medico di medicina generale: il triage avviene infatti via cellulare ed indirizza il paziente a un medico specifico ed il sistema ha anche impatti non indifferenti in tema di organizzazione del sistema sanitario sul territorio.

Uno dei problemi sollevati dall’intelligenza artificiale è quello dell’entità su cui ricade la responsabilità della decisione. Illuminante a questo proposito un recente articolo che mette in luce come, all’aumentare dell’autonomia del sistema intelligente, il peso della decisione sbagliata ricada sempre più sullo sviluppatore.

Ma non solo: le istruzioni del sistema possono essere biased, affette da errori di tipo cognitivo, per esempio dovute al fatto che gli esseri umani tendono ad interpretare le informazioni sulla base di quanto già conoscono, o di tipo statistico, qualora il dataset di riferimento non sia neutrale. Non bisogna poi dimenticare che siamo in un contesto, quello medico, in cui le decisioni devono essere prese in tempi brevissimi.

Infine, un medico può decidere, sulla base di un sistema intelligente che lo informa di una prognosi favorevole con probabilità del 50%, di dimettere un paziente? L’esperienza ci insegna che lo farà solo in relazione al proprio sistema di valori e dunque al costo che attribuisce all’errore e che dipende strettamente dai propri principi etici, non certo dal sistema intelligente che lo supporta.

L'impatto di robot, veicoli autonomi e droni sullo sviluppo sociale

Gianluca Sironi, come presidente Commissione Startup e Settori Innovativi, ha delineato l’impatto dell’innovazione sullo sviluppo sociale del Paese, con particolare attenzione al paradigma di Industria 4.0, ricordando fra l’altro di come oggi, nelle industrie, si assista alla diffusione dei cobot, o collaborative robot, ma che presto avremo invece una seconda generazione di robot, detti cognitivi, in grado di prendere decisioni assieme agli umani.

Questo aspetto della decisione congiunta è stato esaminato anche dalla professoressa Laura Boella, ordinaria di Filosofia Morale presso il Dipartimento di Filosofia dell’Università Statale di Milano: se in futuro esseri umani e macchine prenderanno decisioni insieme, chi sarà responsabile?

Un caso emblematico è quello del dilemma sociale dei veicoli autonomi. Questi veicoli hanno degli indubbi vantaggi, come aumento dell’efficienza del traffico, riduzione dell’inquinamento e del tasso di incidenti stradali, ma comportano anche difficili decisioni etiche quando diventa inevitabile provocare un danno a pedoni o ai passeggeri dell’auto. Le persone, infatti, generalmente approvano macchine programmate per minimizzare il danno in situazioni emergenza anche a spese dei passeggeri, in ossequio al principio utilitaristico del “bene del maggior numero”, ma sono però moralmente ambivalenti riguardo a guidare auto che sacrifichino il passeggero o il guidatore.

Questo tipo di auto non è infatti popolare perché urta la sensibilità morale comune e rappresenta un problema per l’industria automobilistica e le politiche di regolamentazione. Dal punto di vista della filosofia etica, è necessaria una discussione pubblica sugli algoritmi che siamo disposti ad accettare in qualità di cittadini, di produttori di auto e come utenti di veicoli a guida autonoma.

Altrettanto necessaria è una riflessione filosofica sulle preferenze e sui valori morali che tenga conto dell’interesse individuale, dell’eventuale responsabilità di chi compra un’auto “utilitaristica”, per via delle conseguenze delle decisioni dell’algoritmo, della previsione del rischio e della riprovazione sociale.

Un ulteriore esempio è quello dei droni e della guerra da remoto: la distanza fisica diventa anche distanza morale che probabilmente rende più facile uccidere e certamente più difficile assumersi delle responsabilità quando tra gli uomini in carne e ossa ci sono uno schermo e una tecnologia di informazione e comunicazione che rende l’altro un mero target.

In conclusione, secondo l’approccio filosofico, i rischi etici si presentano sempre al momento della progettazione ma anche dell’uso di una determinata tecnologia. Nella situazione complessa e fluida in cui viviamo, non basta applicare principi o teorie etiche preesistenti all’innovazione tecnologica: oggi ci troviamo in uno “stato di eccezione” dell’etica, corrispondente a numerosi problemi morali non precedentemente indagati e per loro natura controversi, come riscaldamento globale, terrorismo, povertà, disuguaglianza, la bioetica della pandemia.

I sette requisiti per un'intelligenza artificiale affidabile

A conclusione dell’evento, un accenno al Libro bianco sull’Intelligenza Artificiale, pubblicato lo scorso febbraio dalla Commissione europea, con il quale l’Europa intende “parlare con un'unica voce e definire il suo modo di promuovere lo sviluppo e la diffusione dell'IA basandosi sui valori europei”.

La Commissione ha accolto i sette requisiti fondamentali per un'intelligenza artificiale affidabile già individuati da un apposito gruppo di esperti nel 2019:

  • Intervento e sorveglianza umani;
  • Robustezza tecnica e sicurezza;
  •  Riservatezza e governance dei dati;
  • Trasparenza (in termini di spiegazione delle decisioni prese dai sistemi, anche complessi, verificabilità e valutazione);
  • Diversità, non discriminazione ed equità;
  • Benessere sociale e ambientale;
  • Accountability (responsabilità).

Le conclusioni del Libro bianco sono volte a rendere l’Unione Europea uno dei protagonisti globali per quanto riguarda l’intelligenza artificiale, nel rispetto dei propri principi fondanti e dunque seguendo “un approccio antropocentrico, etico, sostenibile e rispettoso dei valori e dei diritti fondamentali”, per affrontare sfide come “la lotta ai cambiamenti climatici e al degrado ambientale, le sfide legate alla sostenibilità e ai cambiamenti demografici, la protezione delle nostre democrazie e, ove tale uso sia necessario e proporzionato, la lotta alla criminalità”.

In questo percorso si rilevano necessarie anche misure “che consentano all'Unione Europea di diventare un hub di dati globale” e che “promuovano la capacità di innovazione dell'Europa” nel settore dell’intelligenza artificiale.

Per raggiungere questi obiettivi, la Commissione ha avviato “un'ampia consultazione della società civile, dell'industria e del mondo accademico negli Stati membri in merito a proposte concrete per un approccio europeo all'AI”, terminata nel maggio scorso e i cui risultati sono ora all’esame.

Si ringrazia per la stesura di questo articolo l'ing. Silvia Marigonda
La scelta etica non è un algoritmo - Ultima modifica: 2020-10-01T12:10:39+02:00 da La Redazione