Leggi sulla Robotica: ecco la bozza della Commissione Europea!

robot fabio 2

Se pensate che le uniche leggi sulla robotica siano quelle di Asimov, padre ideologico dei robot, sarà meglio che iniziate a ricredervi. Anche la Comunità Europea, infatti, ha deciso di adeguarsi ai tempi e preparare una propria legislazione in materia di robotica.

Le leggi sulla robotica al centro dei lavori di un pool di esperti nominati dalla Comunità Europea

Dopo aver nominato un gruppo di cinquanta esperti, la Comunità Europea è infine arrivata alla creazione di una prima bozza che contiene quelli che saranno i punti di partenza per la strutturazione delle proprie leggi sulla robotica. Questo team di esperti è stato formato nell’ambito del progetto Digital Single Market, incaricato di gestire svariati temi, dal copyright al blocco geografico di determinati contenuti, toccando anche la privacy, sollevando inevitabili polemiche.

Magari queste leggi sulla robotica non impediranno incidenti come quelli occorsi qualche giorno fa in Cina ad uno sfortunato operaio, ma il riconoscimento della necessità di una regolamentazione legislativa in questo ambito è un passo epocale. Il rapporto uomo macchina, che inquieta anche personaggi come Elon Musk, è un passaggio essenziale in quello che si prospetta essere uno dei punti fondamentali della società futura.

Le leggi sulla robotica abbozzate dalla commissione si sono premurate di considerare con particolare attenzione i rapporti con le Intelligenza Artificiali, cercando un punto di equilibrio con i diritti dei cittadini ‘biologici’. Al centro di queste considerazioni ci sono la sicurezza delle operazioni  e una regolamentazioni che nei limiti il più possibile gli abusi.

Questa linea guida non può però ignorare la possibilità di concedere alle aziende un utilizzo consono della robotica, consentendo loro di impiegare i moderni ritrovati dove necessario.

I cinquanta esperti, più che sul piano puramente normativo, hanno dovuto concentrarsi in modo accorto sulle problematiche di tipo etico, sociologico e politico.

IoRobot

Si è dunque rivelato fondamentale creare dei punti fondamentali su cui imbastire le future leggi sulla robotica:

Responsabilità: ogni eventuale incidente si deve ricondurre a un potenziale responsabile, attivando anche un sistema di sanzioni.

Controllo dei dati: il machine learning si base sulla raccolta e analisi di dati, con alla base dei dataset che possono presentare falle. Si rivela quindi necessario imbastire un sistema di verifica e controllo dei dati, che devono anche esser eventualmente ripuliti prima del loro utilizzo. Ecco quindi la necessità di sistemi di registrazione dei dati da utilizzare in sistemi ad apprendimento continuo, per evitare eventuali manipolazioni che ne compromettano la validità. Non si può nemmeno escludere dall’equazione il controllo sui dati soggetti alle normative sulla privacy.

Robustezza: una IA deve essere affidabile e resistente agli errori, tanto in fase di sviluppo che in produzione, con la capacità di gestire i potenziali risultati errati. Rimane apprezzata la necessità di poter riprodurre in maniera indipendente gli errori. Inoltre, si rende necessaria un’attenta catalogazione delle informazioni, in modo da poterle rendere strumenti di previsione e valutazione. Ovvia la necessità di saper resistere ad ogni potenziale attacco informatico.

Sicurezza: l’incolumità degli esseri umani non deve mai esser dimenticata. L’esempio citato dell’incidente nella fabbrica cinese è una chiara indicazione di come l’applicazione della robotica in ambito industriale sia soggetta ad una necessità di controllo, anche preventivo, costante. Misure di sicurezza e valutazione di dinamiche di intervento sono considerati elementi essenziali di una corretta gestione delle IA.

Rispetto della privacy: dopo l’approvazione della normativa privacy nota come G.D.P.R. (General Data Protection Regulamentation), diventa essenziale anche per le IA il rispetto e la tutela dei dati personali trattati. “I registri digitali sul comportamento umano possono svelare dati molto sensibili, non solo in termini di preferenze ma anche riguardo l’orientamento sessuale, l’età, il sesso, le preferenze religiose e politiche. La persona con il controllo di queste informazioni potrebbe usarle a proprio vantaggio”.

Design democratico:I sistemi dovrebbero essere progettati in un modo che permettano a tutti i cittadini di usare i prodotti e i servizi, senza discriminazioni di età, disabilità o stato sociale”. In pratica: libero accesso per tutti i cittadini UE

Non discriminazione: gli ultimi anni di test sulle IA e il machine learning hanno mostrato la possibilità, nemmeno troppo recondita, di creare delle discriminazioni ‘implicite’ nei dati. Secondo gli esperti, il rischio è destinato ad aumentare, con possibilità di manipolazioni volontarie.

robot

Controllo umano: un sistema IA, dopo una prima fase di apprendimento (training), può operare in maniera autonoma. Nella bozza di leggi sulla robotica si ipotizza un maggior periodo di test, cui si uniscono maggiori strumenti di controllo e monitoraggio, sempre più rigidi all’aumentare dell’autonomia. LA supervisione umana sarà sempre un elemento essenziale.  “Ciò è rilevante per molte applicazioni AI, in particolare per quelle AI che suggeriscono o prendono decisioni sugli individui o le comunità”.

Miglioramento e rispetto dell’autonomia umana: in riferimento alla progettazione delle IA, si dovrebbe sempre considerare che questi strumenti devono “anche per proteggere i cittadini nella loro diversità dagli abusi, governativi e privati, resi possibili dalle tecnologie AI“. Esempio limite, la normativa europea sul copyright. “I sistemi con il compito di aiutare gli utenti, devono offrire un supporto esplicito alla promozione delle preferenze personali, e definire i limiti all’intervento del sistema, assicurando che il benessere dell’utente, definito dall’utente stesso, sia centrale per la funzionalità del sistema”.

Trasparenza: attualmente le IA sono ancora un concetto ignoto, più fantascienza che realtà. Spesso, dopo la fase di training, non si riesce a comprendere come un processo di machine learning abbia raggiunto la propria definizione. Secondo gli esperti della Commissione Europea, è necessario che le IA possano anche ‘spiegare’ se stesse e le loro azioni.

La documentazione di bozza di leggi sulla robotica è piuttosto corposa e complessa, ma si tratta solo di un primo passi verso la creazione di una legislazione che avvicini IA e società. Fino al 18 gennaio è possibile commentare i risultati del pool di esperti, che dovranno presentare la propria relazione finale alla Commissione Europea a marzo 2019, lasciando poi agli organi legislativi di Bruxelles il compito di analizzare le proposte trasformarle in realtà.