C'è la bufala d'attualità: per esempio annunciare che Susanna Camusso, ex segretaria della Cgil, avrà una pensione di 30mila euro al mese a fronte di quella vera, di circa 4mila. C'è la bufala ricorrente, come quella che attribuisce all'ex ministra Cecile Kyenge frasi terribili contro gli italiani, mai pronunciare e mai scritte. C'è la bufala d'annata: Pertini appoggiato a una bara, con il testo che critica il suo dolore per la morte di Tito, il dittatore jugoslavo; in realtà si tratta della camera ardente per Berlinguer. C'è la bufala storica: di recente un esponente politico pentastellato ha riesumato quella dei protocolli dei Savi di Sion, un falso costruito dai servizi segreti dello Zar all'inizio dello scorso secolo. Per non parlare di quelle scientifiche: dai terrapiattisti (adesso banditi da Youtube) alle scie chimiche e ai novax, dalle cure miracolose, spesso con farmaci di cui si ignorano le origini, alle diete che in poco tempo ridurrebbero a un ricordo qualunque tipo di obesità. E ancora le citazioni false, in cui Einstein e Socrate sono i più utilizzati, che girano a tutto spiano su Facebook. È inevitabile che sui social - che possono diventare sempre di più veicoli di fake news, e comunque di disinformazione - si sia concentrata l'attenzione di molti governi. In particolare l'Unione Europea negli ultimi anni è stata molto attiva per trovare un modo di arginare il problema. Secondo l'Ue le “notizie false” sono la semplificazione di un problema più complesso che è la disinformazione, cioè un'informazione falsa creata deliberatamente e poi diffusa per influenzare l'opinione pubblica od oscurare la verità. Nella fase di produzione del contenuto, il messaggio è trasformato in un prodotto informativo, che può assumere la forma di un testo (un post o un articolo), di un'immagine, di un video, oppure una combinazione di questi. Da questo concetto sono esclusi gli errori giornalistici, la satira e la parodia. Ne parliamo con il professor Oreste Pollicino, ordinario di Diritto Costituzionale all'Università Bocconi, e autore, fra tanto altro, del libro “Parole e potere. Libertà d'espressione, hate speech e fake news”, scritto insieme con Giovanni Pitruzzella e Stefano Quintarelli. Pollicino, messinese e laureato nell'Università della sua città, ha fatto parte del Gruppo di alto livello (39 esperti), nominato dalla Commissione Europea, «per la lotta alle notizie false e alla disinformazione online». Al momento si è arrivati a un codice di autoregolamentazione - o di buone pratiche - cui hanno aderito i maggiori operatori online, da Facebook a Google eccetera. Come funziona? Si può temere una sorta di censura privata? «Tecnicamente si chiama codice di condotta, e il processo che ha portato alla sua scrittura è stato lungo e tortuoso. Dopo la pubblicazione del rapporto degli esperti e della Comunicazione della Commissione in primavera, tra l'estate e l'autunno dell'anno scorso le piattaforme hanno redatto un codice in cui si impegnano a realizzare determinati obiettivi di trasparenza e supporto alla lotta contro la disinformazione. Vedremo come sarà applicato nei prossimi mesi, non si può assolutamente parlare di censura privata, perché il principio guida che è stato sempre tenuto in considerazione è quello del rispetto della libertà di espressione. Casomai il Codice rischia di essere non troppo efficace, perché il tutto è lasciato alla buona volontà delle piattaforme digitali». Questa iniziativa come si collega con la rete internazionale di fact checking? Così si pretende di identificare la verità? «La rete di fact checking non è altro che uno strumento in più per combattere il fenomeno della disinformazione in rete. Non c'è alcuna pretesa di identificare la verità, ma un supporto per verificare il collegamento fattuale rispetto a opinioni spesso destituite di fondamento. Il problema non è quello della ricerca della verità, ma quello di assicurare imparzialità e trasparenza nell'attività di fact checking». Qual è il rapporto tra algoritmi e uomini? Può essere davvero autoregolato? O si renderanno necessarie le regolamentazioni pubbliche, con tutti i pericoli di censura che ciò comporterebbe? «Il rapporto tra algoritmi e uomo non può che essere un rapporto strumentale, la macchina è al servizio della persona umana, e non viceversa. Qualsiasi tentativo di antropizzazione dell'algoritmo rischia di impoverire il ruolo della persona e della dignità umana, che invece acquisisce una dimensione cruciale anche nella dimensione digitale e automatizzata. Per poter far sì che si realizzi un processo di umanesimo digitale, non si può prescindere dal ruolo della regolamentazione pubblica, specialmente se si assiste all'emersione di nuove forme di poteri privati cui il diritto costituzionale non può restare indifferente. Ricordiamoci che la missione del costituzionalismo è la limitazione del potere e dei suoi abusi, qualsiasi tipo di poteri si abbia di fronte». L'Ue propone un progetto di alfabetizzazione mediatica e un sostegno alla buona stampa: sono strade percorribili? «È una strada interessante, che non può essere esclusiva ma che è perfettamente complementare alle iniziative di autoregolazione o hard law. La consapevolezza critica, quale bussola in un contesto di eccesso di informazione, deve essere sicuramente alimentata». Il Gruppo di alto livello di cui ha fatto parte ha elaborato altre proposte che lei ritiene di particolare importanza? «La proposta che mi sembra più importante è quella di abbandonare definitivamente il termine fake news, perché suggestivo e vago, e invece preferire il termine disinformazione, in cui la dimensione del danno a una dimensione ultraindividuale è decisiva».