PARLAMENTO EUROPEO
Approvata la risoluzione
per le leggi sulla robotica

Print Friendly, PDF & Email

di Alessandro Morelli

La fantascienza spesso prevede il futuro. Gli esempi sono tanti: dallo sbarco sulla Luna, preconizzato da Jules Verne (anticipatore, nelle sue opere, di diverse invenzioni tecnologiche, come i sottomarini elettrici, i telegiornali o le videoconferenze), alla manipolazione del DNA, immaginata da Aldous Huxley.

Dai carri armati e dalla bomba atomica, previsti da H.G. Wells, all’avvento di Internet, descritto da Mark Twain addirittura in un racconto del 1898. Alcune di queste visioni, in realtà, potrebbero aver dato idee su cui gli scienziati avrebbero poi lavorato con successo: si tratterebbe, in sostanza, di qualcosa di simile a profezie che si sono autoavverate. Il caso delle leggi della robotica di Isaac Asimov è, però, del tutto particolare: esse hanno suscitato l’interesse di filosofi e di scienziati, oltre ad essere state adottate anche da molti altri scrittori di fantascienza.

A esse fa ora espresso riferimento la Risoluzione approvata dal Parlamento europeo il 12 gennaio scorso, con raccomandazioni alla Commissione europea concernenti norme di diritto civile sulla robotica. La relatrice del rapporto, presentato nel maggio del 2016, sul quale il Parlamento si è pronunciato è l’eurodeputata lussemburghese Mady Delvaux.

Nel documento, s’illustrano, in premessa, le preoccupazioni che, sul piano sociale ed economico, oggi l’avanzamento della robotica suscita. Si avverte, in particolare, che lo sviluppo dei robot e delle varie manifestazioni dell’intelligenza artificiale potrebbe dare avvio a una nuova rivoluzione industriale, in grado di toccare tutti gli strati sociali. Nel 2014, infatti, la crescita media delle vendite di robot è passata dal 17% annuo al 29% e, nell’ultimo decennio, le richieste di brevetto per le tecnologie robotiche si sono triplicate.

I vantaggi di tale processo potrebbero essere notevoli, ma anche i rischi e gli svantaggi. Da un lato, nel prossimo futuro, la robotica e l’intelligenza artificiale potrebbero portare notevoli benefici in termini di efficienza e di risparmio economico anche in ambiti come quelli dei trasporti, dell’assistenza medica, dell’educazione e dell’agricoltura; dall’altro, lo sviluppo di tale settore potrebbe comportare la sostituzione della macchina all’uomo in molti lavori, con ripercussioni negative sul piano dell’occupazione e per la sostenibilità dei sistemi di previdenza sociale. Per tale motivo, nel documento del Parlamento europeo si afferma che debba essere presa in considerazione l’ipotesi d’introdurre un «reddito di base generale», invitandosi tutti gli Stati membri a procedere in tal senso.

Ci sono, inoltre, rilevanti rischi per la sicurezza fisica degli uomini, soprattutto con il crescente uso di applicazioni sempre più autonome, impiegate per l’assistenza o per il mantenimento dell’ordine pubblico. Non siamo certo all’anno zero, si osserva ancora nel documento: diverse questioni fondamentali in materia di protezione dei dati sono già state oggetto di normazione nell’ambito della disciplina riguardante Internet e il commercio elettronico. E, tuttavia, altri aspetti richiedono attenzione, in considerazione del fatto che gli apparecchi comunicheranno sempre più autonomamente tra di loro e con le banche dati senza l’interazione degli esseri umani.

Vengono certo alla mente gli scenari apocalittici e le distopie di molti romanzi e film di fantascienza dinanzi alla considerazione secondo cui «è possibile che nel giro di pochi decenni l’intelligenza artificiale superi la capacità intellettuale umana al punto che, se non saremo preparati, potrebbe mettere a repentaglio la capacità degli umani di controllare ciò che hanno creato e, di conseguenza, anche la loro capacità di essere responsabili del proprio destino e garantire la sopravvivenza della specie». Non bisogna certo scadere in allarmismi eccessivi. I problemi, tuttavia, si pongono, tanto che Paesi come gli Stati Uniti, il Giappone, la Cina e la Corea del Sud hanno già cominciato ad assumere atti normativi in materia di robotica e intelligenza artificiale e che alcuni Stati membri della stessa Unione europea hanno iniziato a riflettere su possibili interventi legislativi in tale settore.

Si enunciano così, nel rapporto, alcuni principi che l’auspicata disciplina dovrebbe attuare, tra cui, innanzitutto, le famose leggi di Asimov. Con l’ovvia avvertenza che fino a quando (se mai ciò avverrà) i robot diverranno «consapevoli di sé», tali leggi, non potendo essere convertite in codice macchina, dovranno considerarsi indirizzate esclusivamente ai progettisti, ai fabbricanti e agli utilizzatori dei robot.

Nel mondo di Asimov le leggi della robotica si rivolgono direttamente ai robot: originariamente esse sono tre (espressamente enunciate per la prima volta nel racconto Runaround del 1942), ma poi diventano quattro, aggiungendosi la legge zero (a partire dal romanzo Robots and Empire del 1985). La prima legge prescrive che «Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno». La seconda che «Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge». La terza che «Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima o con la seconda legge». La legge zero, infine, stabilisce che «Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno». Quest’ultima prescrizione è molto più complessa delle altre, perché implicando la possibilità di violare la prima legge, essa impone di provocare o consentire un danno effettivo, certo e immediato a un essere umano, in funzione di un vantaggio incerto ed eventuale per l’umanità.

Per Asimov la legge zero è, di fatto, insostenibile per una macchina, che non appare in grado di compiere scelte come quelle richieste da tale previsione. In realtà, però, anche le altre leggi comportano scelte interpretative che un robot non sembra poter compiere del tutto autonomamente: esse presuppongono, ad esempio, una definizione preliminare di «essere umano» per nulla scontata, come dimostra il dibattito bioetico e giuridico contemporaneo su embrioni e tecniche di procreazione assistita. Importanza decisiva assume, quindi, l’intervento del programmatore, il quale impartisce le istruzioni alla sua “creatura”, condizionandone, in modo decisivo, l’applicazione e il rispetto delle regole. In questa prospettiva sembra orientarsi la stessa risoluzione del Parlamento europeo, che intende promuovere una disciplina europea incentrata sul tema della responsabilità civile dei robot.

Premesso che il nuovo intervento normativo in materia non dovrebbe in alcun modo limitare il tipo o l’entità dei danni che possono essere risarciti, né le forme di risarcimento previste per la parte lesa in ragione della circostanza che il danno sia stato provocato da un soggetto non umano, il documento approvato prevede che la futura disciplina dovrà stabilire comunque l’applicazione di un regime di responsabilità oggettiva. Grande importanza è riconosciuta proprio al livello d’istruzioni impartite al robot e di autonomia di quest’ultimo, condizioni in riferimento alle quali dovrà essere misurata la stessa responsabilità: secondo tale criterio, quanto maggiore sarà la capacità di apprendimento o l’autonomia di un robot, tanto minore sarà la responsabilità delle altri parti; e quanto maggiore sarà la durata dell’“educazione” di un robot, tanto maggiore dovrà essere la responsabilità del suo “insegnante”. In ogni caso, le competenze derivanti dall’“educazione” di un robot non dovrebbero essere confuse con quelle dipendenti solo dalle sue abilità di autoapprendimento. S’immagina comunque, come strumento giuridico di protezione, un regime di assicurazione basato sull’obbligo del produttore di stipulare una polizza assicurativa per i robot autonomi prodotti.

Sul piano istituzionale, il Parlamento chiede, inoltre, la creazione di un’«agenzia europea per la robotica e l’intelligenza artificiale», che abbia il compito di fornire le competenze, anche giuridiche, necessarie per sostenere gli attori pubblici operanti nel settore.

Non è certo possibile prevedere quali sviluppi avrà l’intelligenza artificiale e, in questa prospettiva, può anche comprendersi l’invito rivolto dal Parlamento europeo alla Commissione di valutare l’ipotesi d’istituire uno status giuridico specifico per i robot e l’eventualità di riconoscere una «personalità elettronica» di quelle macchine che prendono decisioni autonome e che interagiscono con soggetti terzi. Si tratta però di scelte etiche, prima che giuridiche, di formidabile portata, che avrebbero innumerevoli ripercussioni in tutti i campi sociali (per un’interessante riflessione sul tema si veda il contributo di Carmela Salazar).

In realtà, per definire lo status giuridico di un robot intelligente occorre prima riflettere bene sui limiti e sulle responsabilità dell’uomo che lo ha creato.

Please follow and like us:
Pin Share
Condividi!

2 commenti su “PARLAMENTO EUROPEO <br> Approvata la risoluzione <br> per le leggi sulla robotica”

Lascia un commento

Utilizziamo cookie (tecnici, statistici e di profilazione) per consentire e migliorare l’esperienza di navigazione. Proseguendo con la navigazione acconsenti al loro uso in conformità alla nostra cookie policy.  Sei libero di disabilitare i cookie statistici e di profilazione (non quelli tecnici). Abilitandone l’uso, ci aiuti a offrirti una migliore esperienza di navigazione. Cookie policy

Alcuni contenuti non sono disponibili per via delle due preferenze sui cookie!

Questo accade perché la funzionalità/contenuto “%SERVICE_NAME%” impiega cookie che hai scelto di disabilitare. Per porter visualizzare questo contenuto è necessario che tu modifichi le tue preferenze sui cookie: clicca qui per modificare le tue preferenze sui cookie.