IMG_5337

DATA-DRIVEN COMMUNICATION E TUTELA DELLA PRIVACY: UN DILEMMA ETICO

di Oana Brindusa Albu, Associate Professor – Department of Management, Society and Communication, Copenhagen Business School  

 

Non c’è dubbio che la comunicazione basata sui dati sia un’enorme opportunità per le aziende ma che, allo stesso tempo, stia effettivamente creando grandi problemi, in particolare a livello sociale. E su questi mi concentrerò qui di seguito.

Uno dei problemi principali è la privacy. Abbiamo tutti una comprensione generale sul fatto che non dobbiamo essere sorvegliati e, grazie alle recenti leggi approvate dall’Unione europea, come il GDPR e le leggi sulla protezione dei dati, sempre più stakeholders sono diventati ancora più consapevoli di avere diritto alla privacy, e che non dovrebbero, per esempio, essere spiati dai loro vicini. La questione diventa più complessa quando si tratta però di Internet e dei social media, ovviamente. Le persone solitamente cliccano – e quindi accettano – senza pensare gli accordi sulla privacy e molti dei loro dati e immagini diventano inevitabilmente, e a loro insaputa, proprietà di grandi conglomerati mediatici quali Facebook o Twitter.

La situazione diventa più spaventosa quando ci approcciamo a questioni di sorveglianza collettiva. La lesione individuale della privacy e la vendita di dati privati ​​dei consumatori a entità terze sono due fattori che creano grossi rischi quando si utilizzano metodi di profilazione dei consumatori basati sui dati (data-driven). Un esempio: quando carichiamo immagini sui social media o effettuiamo ricerche su Internet, veniamo automaticamente profilati e diventiamo un ​​potenziale target per pubblicità su misura. Essere bombardati da annunci può comportare conseguenze negative e indurre un’immagine distorta dell’azienda che invia l’annuncio, anche nei casi in cui questa fosse ben intenzionata.

Ma la normativa dell’Unione sta recuperando terreno: i programmi di tutela della privacy dell’Unione Europea, come il Digital Markets Act approvato lo scorso 24 marzo, riducono drasticamente la capacità delle aziende di raccogliere dati dei consumatori e di commercializzarli. C’è comunque ancora molto da fare, soprattutto con riferimento alle più recenti tecnologie di riconoscimento facciale. Ad esempio, un’app di riconoscimento facciale è stata attiva per due settimane negli Stati Uniti, taggando le persone che entravano in un bar e pubblicando automaticamente una nota di check-in sui loro account Facebook. Oltre alle evidenti minacce alla privacy personale, questo fatto coinvolge anche il grosso tema delle informazioni biometriche raccolte attraverso queste app, che potrebbero potenzialmente, integrate con vari sistemi di sorveglianza con telecamere a circuito chiuso, tracciare i movimenti delle persone in qualsiasi parte del Paese. Questo scenario è ancora più spaventoso quando realizziamo che Facebook non è ancora regolamentato negli Stati Uniti, nonostante tutti gli sforzi fatti finora. Quindi, ad oggi, rimane puramente una decisione di Zuckerberg prendere tutti i dati biometrici che possiede e venderli ad altre società o, anche, all’estero. Dati che potrebbero perfino essere utilizzati contro di noi.

Tornando al tema della regolamentazione in Europa, va detto che nell’Ue le persone sono abbastanza protette, ma resta la domanda su fino a che punto il GDPR stia davvero proteggendo i diritti alla privacy dei consumatori. Se l’approccio dell’Unione Europea all’inizio era più orientato a costringere le aziende a comportarsi in determinati modi (etici) riguardo ai dati, sembra che l’Unione si sia ora concentrata maggiormente sulla trasparenza, costringendo le aziende a informare i consumatori sull’uso dei propri dati e lasciando al consumatore la decisione di approvarlo o meno (e fintanto che approva, va tutto bene). Ma è chiaro che siamo decisamente disposti ad approvare al fine di ottenere il servizio di cui abbiamo bisogno. Quindi, questo non è un modo efficace per proteggere i consumatori. 

Inoltre, uno studio recente ha dimostrato che una certa quantità di siti non è onesta sull’attività di raccolta di dati che compie e traccia le attività dei consumatori, nonostante dichiari di non farlo. Ciò è particolarmente vero per i siti web con sede al di fuori dell’Unione europea, che non possono essere regolamentati. Un altro passo della regolamentazione in Europa, anche se non è ancora chiaro se sarà applicabile o meno, è il Digital Services Act, approvato dalla Commissione lo scorso 23 aprile, che stabilisce la possibile interdizione dal mercato europeo di grandi aziende a seguito della vendita di pacchetti di dati a terze parti, tra cui, per esempio, le società di sorveglianza.

Tuttavia, siamo ancora lasciati in qualche modo all’oscuro su come vengono utilizzati i nostri dati. In una certa misura si può dire che sia inevitabile, a causa delle innumerevoli  tracce digitali che diffondiamo sui social media e sugli strumenti digitali. Inoltre, l’evidenza mostra che questi strumenti hanno un enorme potere sulla nostra vita quotidiana e che quindi li useremmo comunque, anche se sperimentassimo conseguenze negative. Allo stesso tempo, le aziende che utilizzano questi servizi dovrebbero tenere in conto che i consumatori sono sempre più consapevoli dei loro diritti alla privacy e delle azioni che possono portare avanti contro le aziende che violano i loro diritti. Al giorno d’oggi è molto più facile boicottare un’azienda o avviare gravi crisi reputazionali.

Le aziende che scelgono di progettare attività di comunicazione basate sui dati per i propri clienti dovrebbero quindi essere trasparenti su quali dati stanno raccogliendo e quali strumenti basati su algoritmi stanno utilizzando per profilare i clienti, chiedendosi se gli strumenti siano etici e se i clienti siano d’accordo (o meno) con ciò che stanno facendo. In poche parole, la decisione di iniziare (o meno) a utilizzare la comunicazione basata sui dati dovrebbe essere sia etica che pratica.

 

Share on facebook
Share on twitter
Share on linkedin