L'intelligenza artificiale come disciplina tra ingegneria e arte

09.05.2019
Contributo di Prof. Dr. Oliver Bendel
Pubblicato sotto:   intelligenza artificiale, robotica, etica, intervista
Versione originale: tedesco

L'impiego crescente dell'intelligenza artificiale (IA) è una caratteristica essenziale della trasformazione digitale nella società e nell'economia e si riflette sulla nostra vita privata e lavorativa. Oggi la Svizzera riveste un ruolo d'importanza mondiale quale polo di ricerca e sviluppo in questo settore. Il Consiglio federale ha istituito un gruppo di lavoro interno che, entro l'autunno 2019, elaborerà una panoramica sulle misure esistenti, una valutazione dei nuovi campi d'azione e considerazioni sull'uso trasparente e responsabile dell'intelligenza artificiale. Chiediamo al Prof. Dr. Oliver Bendel qual è, secondo lui, il legame tra etica e intelligenza artificiale. Bendel è un esperto nel campo della gestione del sapere, dell'etica dell'informazione e dell'etica delle macchine. Le sue ricerche in quest'ultimo ambito sono seguite attentamente in tutto il mondo. Dal 1998 sono uscite oltre 350 pubblicazioni specializzate, tra cui vari libri e contributi a libri nonché articoli su riviste specializzate.

Lei è un esperto di etica delle macchine. Le macchine possono essere buone o cattive?

Le macchine non possono essere buone o cattive nel vero senso della parola. Per questo ci vorrebbe buona o cattiva volontà. Nella disciplina dell'etica delle macchine, si parla di moralità delle macchine e di macchine morali. È un termine tecnico, usato generalmente quando si parla di sistemi autonomi che non hanno empatia, intuizione, coscienza, libero arbitrio, e non sono buoni o cattivi. Ma possono, ad esempio, seguire le regole morali che noi diamo loro, e alcuni di questi sistemi possono addirittura modificarle.

Quali sono i nuovi problemi etici legati all'intelligenza artificiale?

Dal punto di vista dell'etica dell'informazione, è interessante scoprire l'impatto dell'intelligenza artificiale sull'autonomia personale e informativa. Il riconoscimento facciale pone molte sfide. Dobbiamo discutere se i sistemi tecnici sono autorizzati a leggere nei volti umani avere accesso alle informazioni sulla raccolta, l'analisi e la diffusione di tali dati. Dal punto di vista dell'etica delle macchine, ci si interessa a come i sistemi autonomi possano essere dotati di capacità morali. In alcune applicazioni le macchine morali hanno senso, in altre no. Auto che frenano per gli animali? Volentieri! Che decidono sulla vita e sulla morte delle persone? No grazie!

In nome dell'aumento dell'efficienza e della crescita economica, siamo disposti ad accettare rischi incalcolabili per quanto riguarda l'intelligenza artificiale? Se la risposta è sì, correre tali rischi è giustificato in nome del progresso?

Prima di tutto, considero l'intelligenza artificiale come una disciplina tra ingegneria e arte. Non è quindi solo una branca dell'informatica, non ha soltanto legami con la robotica, ma deve essere compresa in senso più lato. Si imitano aspetti dell'intelligenza umana o animale o si cerca di ottenere un nuovo tipo di intelligenza. Questo richiede una comprensione che va al di là della tecnica. Dovremmo sviluppare robot umanoidi o un'intelligenza artificiale con competenze analitiche, creative e naturali sotto il profilo linguistico? Non solo dovremmo, ma dobbiamo: realizzeremmo così un antico sogno dell'umanità. Ovidio, in merito alla Galatea creata da Pigmalione, scrisse che il fatto che fosse solo arte nascose l'arte. Naturalmente, una o due invenzioni possono rimanere in laboratorio. Non tutto deve vedere la luce.

Quella di aumentare l'efficienza e la crescita economica è una strategia e ideologia che può essere combinata con l'intelligenza artificiale. Le opportunità sono numerose, non solo in campo medico, ma lo sono anche i rischi, si pensi a sistemi di intelligenza artificiale che sorvegliano le persone, giudicano i candidati e i clienti in modo opaco o pregiudizievole, o che prendono decisioni di vasta portata per le aziende. Anche in questo caso, direi che dovremmo poter ricercare e sviluppare nel modo più libero possibile, ma regolamentando l'applicazione. Un problema evidente è che i robot e i sistemi di intelligenza artificiale ci stanno sostituendo in qualità di lavoratori e dipendenti. È importante che i profitti che le aziende generano senza di noi vengano distribuiti equamente. Se questo accade, i robot e i sistemi di intelligenza artificiale possono migliorare le nostre vite, portando sì alla diminuzione dei posti di lavoro retribuiti, ma consentendo al contempo di lavorare piuttosto per piacere, e concedendo più tempo libero.

Quali sono le questioni che la politica e l'amministrazione di oggi devono assolutamente affrontare?

Le macchine sono i migliori politici o impiegati amministrativi? Dovrebbero analizzare e controllare i cittadini? Quali sono le possibilità di ricorso e di intervento di questi ultimi? Abbiamo bisogno di una tassa sui robot e di un reddito di base incondizionato? Quali forme di ricerca sull'intelligenza artificiale devono essere promosse, e quali no?

La politica ha scoperto l'etica, soprattutto per quanto riguarda l'IA. Nelle commissioni competenti dell'UE siedono spesso pochi specialisti di etica filosofica, ma molti specialisti di etica teologica e rappresentanti delle imprese. La Svizzera può fare le cose diversamente. Abbiate il coraggio accogliere più specialisti di etica filosofica! Ma soprattutto, abbiate il coraggio di lasciarli liberi! Il filosofo ama il dubbio, che deve potersi riferire anche alla politica, all'amministrazione e all'economia. Occorre proprio mettere in discussione i principi fondamentali e abituali. Lo specialista di etica che viene stretto troppo forte poi non riesce più a respirare.

Prof. Dr. Oliver Bendel
Prof. Dr. Olivier Bendel
Scuola universitaria professionale della Svizzera nordoccidentale (FHNW)