shutterstock_1038812806-_Convertito_

TALKING ABOUT

di Stefania Romenti, Professoressa IULM 
e Pierangelo Fabiano, Segretario Generale ICCH

 

L’Intelligenza Artificiale fa parte della nostra vita quotidiana: quando pubblichiamo immagini sui social media, eseguiamo ricerche online o poniamo domande alle chatbots, interagiamo con l’IA. Le autorità, così come le città, si affidano all’IA per fornire servizi pubblici mentre i governi di tutto il mondo stanno cercando soluzioni ai problemi globali utilizzando la conoscenza prodotta algoritmicamente. Le tecnologie di Intelligenza Artificiale danno forma alle nostre società e hanno un impatto trasformativo straordinario. Allo stesso tempo, producono effetti collaterali di cui stiamo diventando sempre più consapevoli. Gli algoritmi di IA possono aumentare e rafforzare pregiudizi già esistenti, possono discriminare, possono minacciare la nostra sicurezza, manipolarci e avere anche conseguenze letali. 

Gli aspetti etici, sociali e legali dei sistemi di IA sono il cuore di questa trasformazione: come possiamo sviluppare e utilizzare questa tecnologia in modo eticamente accettabile e sostenibile? Quali sono i principi etici e morali che dovremmo adottare e seguire? Queste domande richiedono risposte collettive urgenti. 

Gli esseri umani hanno riposto grandi speranze nella potenza dei computer e nell’Intelligenza Artificiale. Ci aspettiamo che l’IA apporti vantaggi significativi e diversificati alla società, da una maggiore efficienza e produttività all’affrontare una serie di difficili problemi globali, come il cambiamento climatico, la povertà, le malattie e i conflitti. Le sfide dell’Intelligenza Artificiale sono prima di tutto questioni umane, etiche e sociali.

Oggi l’etica dell’IA analizza come gli sviluppatori, i produttori, le autorità e gli operatori dovrebbero comportarsi al fine di ridurre al minimo i rischi etici che possono derivare dall’IA nella società – dalla progettazione, dall’applicazione o dall’uso improprio intenzionale della tecnologia (Floridi, 2022). Queste preoccupazioni riguardano molti ambiti della vita politica e dell’economia, come la sicurezza e trasparenza dei sistemi di Intelligenza Artificiale, l’impatto dell’IA sull’uso militare, sull’assistenza medica o sui sistemi giudiziari ed educativi. La risposta politica a queste questioni dipende dagli obiettivi etici fondamentali che devono guidare lo sviluppo e l’implementazione dell’IA nella società. A questi dubbi si è iniziato a rispondere proponendo principi etico-normativi fondamentali, che in parte convergono con quelli della bioetica: beneficenza, non maleficenza, autonomia giustizia (Floridi, 2022). A questi quattro principi, Floridi aggiunge il principio dell’esplicabilità: cioè, l’IA, per essere definita etica, deve essere intelligibile e responsabile (accountability); il suo funzionamento deve cioè essere spiegabile (Floridi, 2022).

La comunicazione in questo scenario non è assolutamente secondaria. L’implementazione dell’IA e le sue questioni etiche sono infatti tra le priorità più cogenti per i professionisti di comunicazione (European Communication Monitor, 2021). Se da un lato l’IA è un elemento di discussione nella strategia aziendale, dall’altro emerge come la componente comunicativa sia un pilastro per lo sviluppo etico dell’Intelligenza Artificiale. Nella sfera pubblica, i governi democratici attraverso la comunicazione costruiscono la ragione pubblica, cioè le forme di prova e di argomentazione utilizzate per rendere le decisioni statali responsabili nei confronti dei cittadini, e delle regolamentazioni delicate come quelle tecno-scientifiche (Jasanoff, 2012). 

In questo senso la prima grande e vera sfida per la comunicazione è quella di impegnarsi a coinvolgere la collettività in maniera attiva e partecipativa sulle questioni etiche dell’IA. L’avanzamento tecnologico è un fenomeno trasformativo per l’esperienza sociale; è necessario costruire un rapporto relazionale basato su fiducia e informazioni trasparenti, che permetta alla società civile di essere protagonista conscia e informata su aspetti che la coinvolgeranno concretamente. È necessario uno sforzo comunicativo di aziende e istituzioni a fornire una grammatica digitale per interpretare i cambiamenti, poiché senza conoscenza e consapevolezza la partecipazione, e quindi lo sviluppo etico, non avviene. 

I confini fluidi della tecnologia, degli algoritmi e dei dati, riflettono un’altrettanta indefinita cornice sociale e politica in cui sono inseriti. I professionisti della comunicazione sono osservatori attenti e privilegiati dei cambiamenti sociali, agendo attivamente nel dare forma al discorso pubblico sulle questioni rilevanti. Questo privilegio è anche una condizione di responsabilità morale: i comunicatori devono attivarsi per creare le condizioni di un discorso pubblico che promuova l’innovazione tecnologica sui principi della democrazia deliberativa (Buhmann & Fieseler, 2022).

La letteratura scientifica sottolinea fortemente come sia un errore considerare la tecnologia come entità autonoma che agisce oggettivamente, bensì elemento di una struttura sociale complessa dove diverse pressioni politiche e obiettivi divergenti collidono e si confrontano (Crawford, 2021). Il professionista di comunicazione dovrà destreggiarsi tra queste aree grigie, dove la separazione tra interessi pubblici e privati è labile e molte possibilità sono da mappare ed esplorare. 

Lo scenario a breve termine che si prospetta ai manager e comunicatori li vede occupati a comprendere le implicazioni strumentali che l’Intelligenza Artificiale ha nell’esecuzione e pianificazione della strategia di comunicazione, e contemporaneamente a gestire la percezione degli stakeholder su come queste vengono utilizzate. Il ruolo del comunicatore sarà sempre più di intermediario dell’azienda, dove la sua funzione strategica deve essere attivata per disegnare e proiettare visioni lungimiranti e sostenibili, supportate da una consapevolezza etica e morale.

Le dimensioni etiche di accountability e trasparenza saranno il banco di prova per reclamare il ruolo sociale dei professionisti di comunicazione. La narrazione dell’IA ha rafforzato (in alcuni casi correttamente), l’immaginario dei comunicatori come persuasori occulti (Packard, 1957), che astutamente utilizzano l’innovazione tecnologica per manipolare menti e plasmare ideologie. Questa visione orwelliana deve fare da monito, come standard di deontologia per pratiche etiche e consapevoli. 

Le aziende e le organizzazioni sono protagoniste di questa rivoluzione: responsabilità, risorse e innovazione passano dalle scelte e visioni strategiche di aziende che in dialogo con la politica, danno forma al futuro.  La capacità e il desiderio di immaginare il futuro è (ancora) una prerogativa umana. 

Share on facebook
Share on twitter
Share on linkedin