Intelligenza ex machina: dalla black alla white box

di Anna Fabi

Pubblicato 26 Aprile 2018
Aggiornato 12 Giugno 2018 09:48

logo PMI+ logo PMI+
L’ intelligenza artificiale che apprende: i nostri valori innanzitutto. L'analisi di Paolo Marizza (Innoventually).

Robotica, intelligenza artificiale (IA) e apprendimento automatico (machine learning) hanno effetti sociali, politici e commerciali, stanno trasformando molti settori industriali e spiazzano molti posti di lavoro. Recenti ricerche stimano che il 40-50% di tutti i posti di lavoro sono ad “alto rischio” di essere automatizzati nei prossimi 20 anni.

In questo contesto, l’introduzione di forme di tassazione dei robot o di reddito di cittadinanza vengono spesso citati come un modo per ridistribuire i vantaggi di queste tecnologie, ma non è ancora chiaro come ciò potrebbe essere finanziato né in quale misura.
Ciò significa che la tecnologia sarà un distruttore di lavoro, al netto delle nuove professioni che si verranno a creare?

È comune considerare le nuove tecnologie come concorrenti piuttosto che complementari per gli esseri umani, specialmente nel crescente timore che l’IA minacci il nostro lavoro. Tuttavia le rivoluzioni del passato hanno di fatto aumentato la produttività e portato alla creazione di nuovi posti di lavoro, aumentando l’occupazione complessiva.

La natura del lavoro si è costantemente evoluta nel tempo; alcuni compiti sono stati delegati alla tecnologia mentre sono emerse nuove occupazioni. Non è ancora chiaro quali attività l’IA creerà, ma le tendenze attuali prevedono che alcuni lavori siano ragionevolmente “sicuri” a breve termine, in particolare quelli che richiedono:

  • ampio contatto umano
  • abilità sociali
  • pensiero strategico e creativo
  • gestione dell’ambiguità e dell’imprevedibilità.

L’IA non può (ancora) sostituire gli umani quando sono richiesti creatività, percezione e pensiero astratto: i sistemi di intelligenza artificiale possono fungere da partner in grado di aumentare e migliorare molti aspetti del lavoro e della vita. La realtà è che le macchine sono migliori di noi nel macinare numeri, calcolare, memorizzare, prevedere ed eseguire movimenti precisi; i robot ci liberano di compiti noiosi, pericolosi e fisicamente impegnativi.

Queste tecnologie stanno sfruttando miliardi di dati disparati, ben oltre le capacità funzionali del cervello umano. Ogni due giorni nel mondo si generano più dati di quanti l’umanità ha prodotto dall’ inizio della civiltà ai giorni nostri. In un mondo incentrato sui dati, questi sistemi possono sintetizzare tonnellate di informazioni e aiutarci a prendere decisioni migliori. Possono anche liberare il tempo che possiamo dedicare a ciò che è più prezioso per noi.

L’intelligenza artificiale è una raccolta di tecnologie applicabili ad analisi avanzate, sistemi esperti, reti neurali e apprendimento automatico. Alcune forme di IA vengono utilizzate in una vasta gamma di applicazioni, la maggior parte delle quali sono attualmente basate su regole: automobili senza conducente, pubblicità mirata, assistenti digitali, giochi strategici interattivi, diagnosi e terapie mediche, interpretazione di dati complessi.

I progressi dell’intelligenza artificiale si stanno sviluppando anche nelle cosiddette aree della “creatività“. Nel marketing ad esempio gli operatori cambieranno ruoli e modo di lavorare in posizioni in cui gli addetti forniranno una serie di input su un problema o un obiettivo e il motore di intelligenza artificiale creerà la campagna di marketing e comunicazione in tutte le sue articolazioni, dalla creazione di messaggi fino alla distribuzione mirata dei contenuti ai clienti.

Potremmo anche chiederci se questo articolo possa essere scritto da un algoritmo. Ci sono dei motori, dei software, che si stanno cimentando nell’attività editoriale, ma le piattaforme attuali non sono prive di difetti e carenze. In questo campo siamo ancora ai primi passi, ma sembra che le prossime generazioni di piattaforme di scrittura stiano sviluppandosi per eliminare potenzialmente del tutto l’autore umano. Per il marketer dei contenuti aziendali, questo sta in parte già avvenendo.  Per il prossimo Pirandello, forse non sarà mai possibile.

Aprire la scatola nera

Man mano che sempre più compiti e decisioni vengono delegati agli algoritmi, cresce la preoccupazione per la responsabilità: a chi/cosa può essere addebitata la responsabilità in caso di errori o di incidenti? Ad esempio, chi è responsabile quando un sistema algoritmico, inizialmente implementato per migliorare l’equità nella valutazione delle prestazioni dei dipendenti, finisce per rafforzare i pregiudizi esistenti e creare nuove forme di ingiustizia? E chi è responsabile delle decisioni algoritmiche quando sono in gioco vite umane, come negli incidenti recenti che coinvolgono veicoli autoguidati?

Dovremmo distinguere tra le decisioni prese da un’IA rispetto a quelle prese da un essere umano? Ci saranno molti casi in cui l’obbligo morale o legale di farlo solleva problemi etici a livello personale e collettivo, con valenze anche di ordine pubblico e di convivenza civile.

Ed è qui che andrebbe posta la massima attenzione. Gli algoritmi avanzati possono essere così complessi che persino gli ingegneri che li hanno creati non comprendono il loro processo decisionale. Potrebbe essere il caso delle reti neurali profonde, un tipo di metodo di apprendimento automatico ispirato alla struttura del cervello umano. Il metodo prevede che gli algoritmi vengano alimentati, o si autoalimentino, con alcuni input, lasciando che l’algoritmo calcoli l’output.

Non abbiamo idea di cosa succede in mezzo. Ci sono molti percorsi diversi che potrebbero portare al risultato e alla decisione: la maggior parte della “magia” avviene in strati nascosti del sistema. Inoltre, questa “magia” potrebbe anche implicare flussi e processi di scambio di informazioni completamente diversi da quelli del cervello umano.

Una famosa esemplificazione di questa realtà è l’esperienza di algoritmi che negoziano utilizzando un linguaggio naturale e che, dopo diversi round di trattative, comprendono che non era necessario usare un linguaggio umano per contrattare.

Come valutiamo l’attendibilità e l’impatto delle decisioni algoritmiche quando il processo informatico-decisionale dell’algoritmo è una scatola nera? Quali nuove elaborazioni del pensiero etico filosofico si rendono necessarie? E quali meccanismi tecnico / legali si dovranno implementare?

Un’opzione minimale consiste nella “progettazione trasparente” di questi algoritmi in modo che i loro “processo elaborativi” siano “leggibili”. Se potessimo capire come questi algoritmi prendono le loro decisioni, potremmo anche adeguare il loro “pensiero”, le loro logiche, ai requisiti ed agli standard etici e sociali, tecnici e giuridici, rendendoli così “umanamente” responsabili.

Dalla IA “ristretta” alla IA “generale”

Il campione mondiale di scacchi Gary Kasparov ha dichiarato di essere stato il primo ad aver perso il suo lavoro grazie intelligenza artificiale quando il Deep Blue dell’IBM lo ha battuto a scacchi. Ma Deep Blue era un supercomputer specializzato su un compito complesso in un ambito specifico, con la capacità di calcolare più mosse (200 milioni di posizioni / secondo) di un umano. È quindi più corretto dire che Kasparov ha perso il lavoro per la forza di calcolo bruta e la legge dei grandi numeri. L’intelligenza artificiale è molto più: si riferisce a un sistema in grado di imitare l’intelligenza umana.

Il caso Kasparov rientra in quella che potremmo definire “IA ristretta”, che è specializzata nella progettazione per eseguire un compito specifico. Ma che dire dell’intelligenza artificiale “generale”, che potrebbe svolgere un qualsiasi compito cognitivo umano? Avrebbe una sua personalità, le sue emozioni? Se l’input di questa macchina fosse la nostra storia, perché dovrebbe comportarsi in modo diverso da noi? Nel creare civiltà passate, e nel nostro presente, non ci siamo preoccupati molto degli ecosistemi umani e biologici che uccidevamo lungo il cammino. Perché un IA dovrebbe allora preoccuparsi degli umani e delle loro regole?

Per ora, questa domanda è, ovviamente, prettamente filosofica, ma è bene iniziare a porsela: è molto probabile che l’IA cambi radicalmente le nostre vite personali e professionali e la società in generale.

Nel corso della storia, pur pagando prezzi altissimi sull’altare dell’evoluzione delle civiltà, abbiamo saputo sviluppare e mantenere il lato “benefico” delle nostre tecnologie.

Non si tratta di essere pro o contro l’IA, sarebbe come chiedere ai nostri antenati se fossero a favore o contro il fuoco.

Queste nuove tecnologie faranno parte della nostra vita quotidiana, la strategia migliore è essere proattivi e imparare come controllarle e gestirle.

________

di Paolo Marizza, Co-founder di Innoventually