L’arresto del capo di Telegram a Parigi e la minaccia di sanzioni Ue alla piattaforma X di Musk da parte del commissario Breton (mandato poi letteralmente a quel paese da Musk) inaugurano una nuova stagione nel rapporto tra leggi e piattaforme online, almeno in Europa. Siamo entrati nella fase di applicazione del Digital Services Act che impone alle piattaforme di bloccare i contenuti illegali (in ragione di normative europee, o nazionali nei paesi in cui sono pubblicati) e di contrastare contenuti dannosi (ancorché non illegali, cioè non vietati da leggi nei paesi in cui vengono pubblicati). La strada tentata finora è stata graduale e sperimentale. Spesso affidata all`autoregolamentazione (codici di condotta) delle singole piattaforme in un confronto di moral suasion con il regolatore europeo. Alle piattaforme, in cambio di (auto)regolazione, si riconosce (come già negli Usa il Decency and Communications Act, sez. 230) l`esenzione da responsabilità per la pubblicazione di terzi e per l`applicazione dei codici di condotta. Nel caso di Durov sembra emergere il tema dell`ipotesi di complicità nella pubblicazione di contenuti illegali (quanto meno come omissione nell`applicazione del regolamento europeo e delle leggi nazionali francesi). Nel caso di Musk vi è in aggiunta un uso, anche personale, da parte del proprietario della piattaforma, di contenuti incendiari e in genere di opposizione ferma al riconoscimento degli obblighi del Digital Services Act. Continuare a ipotizzare che le piattaforme (con la loro profilazione e proposizione algoritmica) siano o debbano essere “neutrali” o anche insistere a dire – come fanno Musk e Salvini – che in nome del free speech non ci sia alcuna responsabilità di alcun tipo è ormai totalmente anacronistico. Il tema è invece come definire meglio e come fondare gli interventi di regolazione. E` sbagliato pensare che ogni regola sia contro il free speech. Al contrario, bisogna capire che l`introduzione di regole, di presidi sanzionatori e di responsabilità (quasi editoriali) serve a sostenere la libertà d`espressione delle vittime di disinformazione, hate speech, cyberbullismo, sfruttamento dei dati e così via. Accanto al tema inedito della governance e della proprietà delle piattaforme, ci sono due nodi di fondo che occorre ancora sciogliere: la definizione giuridica di contenuti “dannosi” su disinformazione e hate speech; il grado di esenzione da responsabilità delle piattaforme per le proprie condotte e per quelle di terzi. Se nel mondo dei mainstream media di “interesse generale” è pacifico il diritto – riconosciuto dalla Corte costituzionale – di informare, informarsi ed essere informati, diritto che impone obblighi a chi fa informazione, nel mondo online tale diritto va esteso al diritto a non essere disinformati. Che significa non tanto giudicare i contenuti ma, per esempio, offrire uno spazio abilitante e semplice agli utenti per decidere da sé a quale profilazione algoritmica essere esposti, a partire dall`uso dei dati, a conoscere la provenienza (e non solo la fonte) di un contenuto, la natura o meno di bot di un altro utente, a distinguere tra contenuti generati da AI e da esseri umani, a sapere come fact-checker o altri editori hanno eventualmente giudicato quel contenuto. Sul lato dell`hate speech le cose sono più complesse. Qui c`è davvero la necessità di costruire uno standard giuridico rigoroso e condiviso. Occorre anche qui espandere la nozione di libertà d`espressione al fine di comprendere che l`impatto dell`hate speech (nel senso giuridicamente ristretto proposto ad esempio dal Consiglio d`Europa) sulle vittime può esser quello di limitarne la libertà d`espressione, a partire dalla libertà di esprimere sé stesse (e la propria identità) nella sfera pubblica. E la possibilità di “difendersi” con il counterspeech (cioè di rispondere alle espressioni d`odio) non ripristina quella libertà. Sono due libertà rivali quella degli haters e quella delle vittime: se si sceglie la prima, si sacrifica la seconda. E` dunque ancora sul piano della interpretazione dei confini della libertà e della tolleranza che occorre fare alcuni passi avanti mettendosi dal punto di vista delle vittime di disinformazione e hate speech. E` questo il passo che manca ancora alla regolazione del Digital Service Act. E` il tempo delle regole online, ma serve ancora chiarezza nelle definizioni giuridiche e nelle applicazioni.


Ne Parlano