Quando si pensa al Garante della privacy, si è portati a credere, erroneamente, che si tratti soprattutto di un organismo di controllo e censura, un'istituzione orientata, per statuto, a ostacolare la diffusione delle nuove tecnologie. Al contrario, come si evince dalle parole di Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali, i membri dell’Authority mettono sullo stesso piano l’innovazione e i diritti fondamentali, non come antagonisti, ma come “alleati”. Scorza lo ha ribadito ieri a Messina durante l’incontro sul tema “Algoritmi e informazione tra libertà di stampa e tutela della privacy” che si è svolto nell’auditorium della Società Editrice Sud. Partiamo subito dal tema più caldo: in che modo si è risolta la disputa con OpenAi relativamente a ChatGpt, che come Garante avete prima sospeso e poi riammesso nel mercato italiano? “Non è ancora completamente risolta e si prevede che continui per alcuni mesi. OpenAI ha aderito in larga parte alle direttive imposte dal Garante, migliorando la trasparenza e informando gli utenti che i loro dati potrebbero essere stati utilizzati per addestrare gli algoritmi. Ora, ad esempio, è possibile richiedere la rimozione dei propri dati. Se un utente si trova involontariamente al centro di un contenuto generato da ChatGPT che si rivela impreciso, non può ancora richiedere la correzione di tale informazione a causa di limitazioni tecniche. Può ottenere, però, la rimozione di quel contenuto errato. Nelle prossime ore, ci aspettiamo di ricevere da OpenAI un piano di comunicazione che spieghi come sono stati addestrati gli algoritmi in passato e quali sono i diritti degli utenti. Entro la fine di maggio, l'azienda californiana dovrà presentare una linea guida per la verifica dell'età, chiarendo come intenda impedire l'accesso ai minori a un servizio che l’organizzazione stessa definisce destinato a persone di almeno 18 anni, o a quelle tra i 13 e i 18 anni che sono virtualmente accompagnati dai genitori”. Lei ha affermato che, nella sfida tra sviluppo tecnologico e regolamentazione “siamo al calcio di inizio di una partita straordinariamente importante, una finalissima per il futuro della nostra società nella quale si vincerà pareggiando”. Che significa? “Non esistono per definizione sotto l'ombrello della Costituzione diritti tiranni, ovvero diritti che possono fagocitare altri diritti. Pertanto, tra il diritto di innovare, che è anche il diritto di fare impresa, e il diritto alla privacy, non esiste un diritto che debba prevalere sull’altro. L'obiettivo è trovare un equilibrio che consenta l'innovazione e l'imprenditoria nel rispetto dei diritti fondamentali, come quello alla privacy. Quindi, non si può impedire un'attività imprenditoriale solo per i potenziali rischi per la riservatezza. Al contrario, si deve esigere che l'imprenditoria comprima il diritto alla privacy solo nella misura strettamente necessaria per la realizzazione di un progetto”. Lei ha anche citato il presidente Mattarella che, nel suo messaggio di fine anno, ha acceso un faro importante su questi temi sostenendo che: “La quantità e la qualità dei dati, la loro velocità possono essere elementi posti al servizio della crescita delle persone e delle comunità”. In che modo? “Siamo nella società dei dati. Le Big Tech, i grandi oligopolisti della tecnologia hanno costruito le loro fortune sui dati, il cui accumulo e utilizzo massiccio consente di governare non solo i mercati, ma anche le democrazie. Perché di fatto oggi, grazie a questo, i colossi del web dettano la dieta mediatica del mondo intero. Noi vediamo, leggiamo, ascoltiamo quello che suggeriscono gli algoritmi addestrati con quelle informazioni. Dovremmo imparare anche a casa nostra a valorizzare i dati, ovviamente nel rispetto delle regole sulla privacy. Abbiamo un patrimonio di informazioni digitali gestite dalle pubbliche amministrazioni che è straordinario, ma sono sottoutilizzati. L’esempio della pandemia e lì a ricordarci che la regione A non sapeva quale fosse la condizione pandemica della regione B. Mettere a fattor comune questi dati, però, sembra ancora impossibile in Italia. Continuiamo a trattarli gelosamente in ‘silos verticali’, ovvero senza un'efficace condivisione, a causa dell’equazione perversa secondo la quale sei il dato lo tengo solo per me io conto di più. Un altro errore comune è limitarsi a tradurre l’acronimo GDPR, ovvero la disciplina europea sulla privacy, ‘Regolamento generale sulla protezione dei dati’, omettendo la seconda parte del titolo che recita ‘nonché sulla loro libera circolazione’. La vera scommessa del legislatore europeo, infatti, è garantire la miglior circolazione possibile di tali risorse all'interno dell'UE, e il mezzo attraverso il quale raggiungere l'obiettivo è dettare in tutti i Paesi una disciplina uniforme”. Perché più privacy vuol dire più libertà? “Oggi le Big Tech conoscono personalmente ognuno di noi in maniera molto profonda, perché dispongono di un'enorme quantità di informazioni che ci riguardano. Questo livello di conoscenza è talmente dettagliato da poter influenzare le nostre decisioni. È come quando, fuori dal mondo digitale, per convincere qualcuno a fare qualcosa, chiediamo aiuto al suo migliore amico, perché conosce i modi migliori per persuaderlo. Questa è la posizione di potere in cui si trovano le Big Tech: ci ‘comprendono’ meglio di chiunque altro, e quindi possono 'manipolare' le nostre scelte. E questa condizione può limitare la libertà. Le multinazionali tecnologiche sanno come vendere prodotti o servizi, come proporre video, come suggerire orientamenti politici o culturali”. Il tema “Algoritmi e informazione” è stato anche al centro della sua relazione a Messina. Qual è il ruolo degli algoritmi nel condizionamento dell'opinione pubblica? “Credo che incidano enormemente. E’ evidente che i giganti della digitale hanno un impatto significativo sull’opinione pubblica. Se pensiamo a ciò che leggiamo durante la giornata, ai programmi televisivi che guardiamo la sera, alla musica che ascoltiamo, ci rendiamo conto che la maggior parte dei contenuti mediatici a cui siamo esposti è dettata da quattro o cinque grandi aziende. Sia che si tratti di motori di ricerca o di aggregatori di notizie, ci suggeriscono contenuti sulla base di algoritmi, e ciò può portare a un rischio di omologazione del pensiero. Se una di queste organizzazioni decidesse, per esempio, di suggerire che il cambiamento climatico non è un problema, o al contrario, che è un'emergenza, potrebbe influenzare l'opinione del mondo intero nel giro di poche settimane”. Ritiene che l’intelligenza artificiale sia un nemico o un potenziale alleato del giornalismo e dell’editoria? “Come tutte le tecnologie, l'intelligenza artificiale può avere effetti positivi o negativi, dipende tutto da come la utilizziamo. Se adoperata come strumento di lavoro, può rivelarsi straordinariamente utile. Per esempio, nelle grandi inchieste giornalistiche, come i Panama Papers, dove è necessario analizzare enormi quantità di documenti, un algoritmo può svolgere questa analisi molto più velocemente di quanto farebbe un giornalista o un team di giornalisti, secondo i parametri che gli vengono forniti. Se i professionisti dei media, però, si affidano troppo a questa tecnologia, lasciando che faccia tutto il lavoro al posto loro, possono verificarsi problemi. Un fenomeno che potrebbe emergere è quello che chiamo ‘impigrimento’: se gli operatori dell’informazione permettono all'intelligenza artificiale di scrivere la maggior parte del loro contenuto, il risultato potrebbe essere una notizia piatta e banale. Inoltre, l'intelligenza artificiale, come ad esempio ChatGPT, potrebbe produrre contenuti più velocemente di un giornalista, ma la qualità potrebbe subire un netto calo. Nel medio periodo, ciò potrebbe portare alla sostituibilità del giornalista, non del giornalista capace, ma di quello che, per indolenza, si lascia sopraffare dalla tecnologia”. Tra le sfide più significative sul tema della privacy per il 2023, lei ha citato il nodo del cookie wall nell’editoria online. Quale sarà, in questo caso, il punto di equilibrio? “Dover bilanciare la libertà di impresa, in questo caso editoriale, con la privacy dei singoli è una sfida. Non posso dire con certezza dove troveremo l'equilibrio, ma ritengo che un punto di partenza debba essere la trasparenza. Come utenti, dovremmo almeno essere messi nelle condizioni di capire cosa implica il consenso all'installazione dei cookie, cosa che oggi la maggior parte delle persone non comprende pienamente. Dovremmo essere consapevoli di quali informazioni stiamo condividendo e con chi. Non stiamo solo ‘cedendo’ le nostre informazioni all'editore, ma a un'intera catena di soggetti, che arriva alle grandi aziende tecnologiche. Condividiamo dettagli come le nostre preferenze di lettura, i nostri orari di lettura, se utilizziamo un dispositivo insieme con qualcuno e così via, tutti particolari che consentono di tracciare un profilo molto preciso di noi. Se questo scambio di informazioni diventa consapevole, dove il lettore comprende il valore di ciò che sta concedendo in cambio di ciò che riceve, allora forse si potrà discutere. Finché questa dinamica rimane asimmetrica, con l'editore che sa perfettamente quanto vale l'informazione raccolta mentre l'utente non lo sa perché non riesce a capirlo e nessuno glielo spiega, è difficile dire che si tratta di una scelta sostenibile”. Molte persone ritengono spesso le preoccupazioni sulla privacy distanti dal loro quotidiano. Come chiarire questo equivoco? “Credo che la chiave stia nell'educazione, sia a casa che a scuola. Piuttosto che parlare di privacy, dovremmo concentrarci sul valore dei dati. È importante far comprendere, per esempio ai bambini, che nulla è realmente gratis su internet. Il cartone animato che sembra gratuito su una grande piattaforma di condivisione di contenuti, in realtà, ha un costo: stiamo cedendo una parte di noi stessi. Questa è una missione educativa e culturale che richiede tempo. Non raggiungeremo l’obiettivo da un giorno all'altro. Ma se non ci impegniamo in questa direzione, corriamo il rischio di perdere progressivamente la nostra identità personale a vantaggio di entità commerciali”. Un caso emblematico è quello dello “scandalo” di Cambridge Analitica, ovvero l’uso dei dati di milioni di utenti di Facebook senza il loro consenso esplicito per creare profili dettagliati e influenzare nel 2016 i risultati elettorali delle presidenziali degli Stati Uniti e il referendum sulla Brexit. In Italia abbiamo corso o corriamo questo rischio? “Potenzialmente, anche in Italia potremmo correre un rischio simile. Il fattore determinante è la quantità di dati disponibili. In quel momento, negli Stati Uniti avevano più dati disponibili e un ambiente tecnologicamente più avanzato. Il caso di Cambridge Analytica sottolinea l'importanza dell'educazione al valore dei dati. Nonostante lo scandalo, l'affetto degli utenti per la piattaforma non ha subito cambiamenti rilevanti. Se una banca fosse stata vittima di un furto significativo o avesse mostrato debolezza economica, i correntisti probabilmente l'avrebbero abbandonata. Invece, Facebook, dopo aver subito una sottrazione illecita dei dati, ha mantenuto la fedeltà degli utenti. Questo perché, mentre apprezziamo immediatamente il valore del denaro, abbiamo più difficoltà a comprendere l’importanza del dato”. Questi casi eclatanti hanno portato a un rafforzamento delle leggi sull’argomento nell'Unione Europea. In particolare è stato perfezionato il Regolamento Generale sulla Protezione dei Dati (GDPR). Ma da Bruxelles sono in arrivo nuove normative, come il Digital service act e il Digital market act, che lei ha definito un “terremoto digitale”. Quali saranno i cambiamenti più significativi? “È difficile prevedere oggi l'impatto di regolamenti ancora in divenire. Queste regole si propongono di richiamare soprattutto i giganti di internet al rispetto di principi fondamentali per l'Unione Europea. Forse queste regole, però, arrivano un po' tardi, dopo che certe situazioni sono già precipitate. L'obiettivo è che, se queste normative saranno efficaci, gli utenti avranno maggiore libertà di scelta nello ‘scambio’ di cui abbiamo parlato. Le grandi aziende tecnologiche potranno utilizzare meno dati per i loro profili, non potranno impadronirsi di informazioni relative alla salute o riguardanti i minori. Di conseguenza, avremo un po' più di libertà, anche se questi giganti rimarranno tali”. Quali sono i consigli più semplici da dare agli utenti per tutelarsi. “Forse la cosa più importante è iniziare a porsi delle domande, le stesse che fanno di solito i bambini mentre crescono, cercando di capire cosa si cela dietro ai servizi e alle piattaforme che sembrano incredibilmente facili da usare. Queste piattaforme sono progettate in modo tale da scoraggiare le domande. Perciò, l'antidoto migliore è proprio chiedersi: perché Alexa, Siri o Google Assistant mi danno risposte accurate? Perché sembrano conoscermi così bene? Queste risposte potrebbe renderci consapevoli di quanto siano preziosi i nostri dati, che è forse il miglior antidoto a disposizione oggi per gestire il futuro che si sta delineando”. Guardando al futuro, come vede l'evoluzione della privacy e dei diritti digitali nei prossimi cinque anni? Quali sfide ci dobbiamo aspettare? “Credo che dovremo affrontare una questione fondamentale ancora irrisolta: i dati possono essere considerati la moneta dei mercati globali? Possiamo continuare a "pagare" i servizi con i nostri dati come abbiamo fatto finora? Se accettiamo questa idea, stiamo implicitamente accettando che la dignità delle persone possa essere monetizzata. E, cosa ancora più importante, un diritto fondamentale come la privacy, che dovrebbe essere universale e uguale per tutti, rischia di diventare un lusso riservato ai più ricchi. Ciò significa che, se i dati diventano una moneta, chi ha più risorse può scegliere di proteggere la propria riservatezza pagando in denaro, mentre chi è meno abbiente può essere costretto a cedere la propria privacy perché non può permettersi di fare altrimenti. Questo è il vero nodo da sciogliere”.