Costruire una practice etica per i Big Data

di Alessandra Gualtieri

27 Gennaio 2014 14:30

logo PMI+ logo PMI+

Poiché i big data rappresentano una delle principali sfide per organizzazioni grandi e piccole, il dibattito del settore si articola su due esigenze di business critiche – la necessità di trovare modi più efficaci per gestire l’esplosione dei dati e le loro tipologie, e la necessità di sfruttare meglio l’opportunità che questa proliferazione offre per prendere decisioni più intelligenti e ponderate. Nel mezzo, però, un’altra necessità critica viene spesso trascurata: il bisogno di costruire una pratica etica dei big data, che dedichi un’adeguata attenzione alle preoccupazioni dei clienti in tema di privacy.

L’etica dei big data è un argomento complicato, in cui gran parte della complessità deriva dalla vaghezza del concetto di privacy in sé. Che cosa è esattamente e, soprattutto, quali sono i diritti alla privacy di un individuo? I confini della privacy differiscono tra varie culture, e mentre è generalmente inteso che gli individui hanno diritto a un certo livello di privacy, la questione di chi sia la responsabilità di proteggere la privacy non ha un’unica risposta chiaramente definibile.

La questione diventa ancora più oscura quando si ha a che fare con le sfumature legate a informazioni scambiate tra cliente e azienda. In alcuni casi, come ad esempio i dati comunicati a fornitori di servizi come medici e avvocati, l’onere di proteggere la privacy è sempre stato a carico del ricevente. Nel caso di rapporti cliente-azienda che sono intrinsecamente più transazionali, tuttavia, come quelli con un rivenditore, la protezione delle informazioni private è storicamente stata vista come di responsabilità del comunicante. Se non si desidera che certe informazioni siano di dominio di una determinata azienda, semplicemente non si dovrebbe fornirle.

Un tempo tale concetto aveva senso. Nell’era dei big data, tuttavia, non è più così. L’informazione digitale è fluida, lo scambio è semplice, e la sua distribuzione è istantanea, globale, e sempre più essenziale. Chiunque operi nel marketing attesterà l’importanza di comprendere l’identità e i modelli del singolo consumatore, rendendo fondamentale per la sopravvivenza di molte aziende moderne la necessità di ottenere informazioni dettagliate sul background e sul comportamento di un determinato cliente. In altre parole, le aziende non solo non ricevono più informazioni; stanno utilizzando le informazioni, con uno scopo.

La profonda trasformazione delle necessità delle imprese di beneficiare delle informazioni personali significa che la responsabilità di garantire la privacy è passata definitivamente dal comunicatore all’utente, e questo vuol dire che le organizzazioni devono prendere misure immediate per garantire che i loro crescenti programmi di big data vengano implementati tenendo a mente l’etica della privacy. Sebbene il piano per farlo non sia ancora completo, ecco quattro punti che possono aiutare le imprese a muoversi nella giusta direzione:

1 – Comprendere i fattori di rischio

Molte violazioni della privacy dei big data sono involontarie e avvengono all’insaputa dell’analista. Ecco perché è fondamentale per tutti i soggetti coinvolti in una iniziativa di big data comprendere i rischi connessi alla gestione delle informazioni sui clienti. Forse il rischio più grande sta nella fusione dei dati acquistati con altri modelli di dati per dedurre o rilevare informazioni non divulgate – informazioni che possono risultare private agli occhi del cliente. Questo è esattamente ciò che è accaduto nel caso di un noto marchio quando ha inviato dei coupon per articoli legati alla gravidanza ad un’adolescente, che ha spinto un padre arrabbiato, ignaro che sua figlia fosse di fatto incinta, a rimproverare uno store manager locale. Per garantire una pratica etica, rivolgetevi ai clienti solo in base alle informazioni divulgate all’interno di ogni singolo trasferimento di dati.

2 – Educare gli utenti

Attuare delle policy che impediscono ai dipendenti di rilevare informazioni non divulgate è solo una parte dell’equazione. Il personale deve in ogni caso assumersi la responsabilità di ciò che fa con i dati del cliente – anche quelli ottenuti in modo etico. È quindi indispensabile per un’azienda educare il personale sul livello di targeting accettabile e, viceversa, dove sono le zone grigie che possono essere potenzialmente dannose sia per il cliente che per il brand. Ad esempio, se i dati mostrano che un cliente specifico ha un rischio elevato di cancro, un’azienda dovrebbe trattarlo come tale nonostante oggi questa persona sia perfettamente sana? I dipendenti hanno bisogno di linee guida chiare su come debbano essere trattate situazioni specifiche.

3 – Progettare e utilizzare strumenti tenendo a mente la privacy

Questo vale sia per i vendor che creano strumenti analitici sia gli analisti che li utilizzano. Le tecnologie di analisi dei big data oggi sono innegabilmente potenti e sempre più avanzate, permettendo agli analisti di andare molto più in là rispetto a quanto hanno potuto fare con il paradigma di segretezza della privacy. Come si suol dire, da un grande potere derivano grandi responsabilità. Senza un’attenta considerazione sia del progettista sia dell’utente di un dato sistema analitico, andare oltre i confini accettabili può succedere, e accadrà.

4 -Dall’alto verso il basso

I dipendenti prendono esempio dai responsabili aziendali e i big data non fanno eccezione. Top-level Executive e dirigenti d’azienda devono chiarire ad analisti, marketing manager e responsabili aziendali che non è accettabile raggiungere gli obiettivi aziendali a scapito della privacy dei clienti. La necessità di ricavare valore dai big data è fondamentale, ma in un mondo dove regolarmente la tecnologia va oltre le norme sociali, e i clienti non hanno ancora avuto abbastanza tempo per esprimere le loro zone di comfort rispetto all’uso dei loro dati personali, è onere dei responsabili aziendali chiedere ai dipendenti di perseguire un percorso etico.

Articolo gentilmente concesso da Di Matt Wolken, Dell Software.