Un piano in tre step: definizione dei principi sui quali si deve basare un’intelligenza artificiale etica affidabile, fase pilota su larga scala, promozione internazionale dell’approccio europeo.
E’ la strategia UE in base al lavoro effettuato da un gruppo di esperti nominati nel 2018, che ha l’obiettivo di aumentare gli investimenti pubblici e privati nel settore portandoli ad almeno 20 miliardi di euro l’anno nei prossimi dieci anni, mettere a disposizione più dati, promuovere il talento e garantire la fiducia.
=> Intelligenza Artificiale: vantaggi e rischi
Il punto fondamentale è che lo sviluppo dell’intelligenza artificiale deve essere “antropocentrico”, quindi al servizio dell’uomo e di uno sviluppo etico e sostenibile dell’umanità. Come sintetizza Mariya Gabriel, Commissaria responsabile per l’Economia e la società digitali:
Un’intelligenza artificiale etica e sicura nell’Unione europea.
Ecco i sette principi che sono stati fissati per sviluppare in modo affidabile l’IA:
- Azione e sorveglianza umane: promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali senza ridurre, limitare o sviare l’autonomia dell’uomo.
- Robustezza e sicurezza: è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
- Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
- Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
- Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
- Benessere sociale e ambientale: promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
- Responsabilità intesa anche come accountability: meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.
La fase pilota partirà nell’estate del 2019, prevedendo la partecipazione di imprese, anche internazionali, e istituzioni, per mettere in pratica le linee guida sopra esposte, che dovranno successivamente tradursi (fase tre) in una strategia internazionale.
«La dimensione etica dell’intelligenza artificiale non può essere considerata un’opzione di lusso né un complemento accessorio – sottolinea Andrus Ansip, vicepresidente e commissario responsabile per il Mercato unico digitale -: solo con la fiducia la nostra società potrà trarre il massimo vantaggio dalle tecnologie».
L’intelligenza artificiale etica è una proposta vantaggiosa per tutti, che può offrire un vantaggio competitivo all’Europa, ossia quello di essere leader nello sviluppo di un’intelligenza artificiale antropocentrica di cui i cittadini possono fidarsi.