Codice di condotta - Come privare i cittadini della libertà di espressione
Come aveva anticipato all'Assemblea generale del 6 Febbraio, il 12 Giugno 2023 il segretario generale delle Nazioni Unite, Antonio Guterres, ha presentato il Codice di Condotta per l'integrità delle informazioni sulle piattaforme digitali, chiedendo l’adozione di misure per affrontare la minaccia rappresentata dall’incitamento all’odio e dalla disinformazione online.
La guida fa parte di un progetto più ampio, Our Common Agenda, di cui si parlerà al Summit of the Future, programmato per Settembre 2024.
Sky News Australia denuncia il tentativo da parte delle Nazioni Unite di voler controllare l'informazione, di voler definire cosa sia vero e cosa sia falso e quindi privare ulteriormente i cittadini della libertà di espressione.
Non è la prima volta che un giornalista di Sky News Australia si prende la responsabilità di esporre certi argomenti con franchezza e questo non può che farci contenti.
Sempre a proposito di censura, nel post successivo parleremo del Digital Services Act.
DIGITAL SERVICES ACT
REGOLAMENTO (UE) 2022/2065 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO
relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (Regolamento sui servizi digitali)
Approvato il 19/10/22 – Entrato in vigore il 25/08/23
Il Regolamento si concentra principalmente sui contenuti online e definisce:
le responsabilità dei fornitori di servizi digitali (Art. 41)
le prassi per la moderazione dei contenuti che vengono pubblicati (Art. 14, 15, 34, 35, 42)
Ci viene quindi presentato come una legge destinata a regolare l'interazione tra utenti e giganti tecnologici, mirando a conquistare una maggiore trasparenza e la responsabilizzazione di questi ultimi.
Ma è davvero così?
Vediamo insieme alcuni articoli di rilevante interesse.
Art. 34 = Valutazione del rischio.
I gestori dei servizi digitali devono effettuare una valutazione dei rischi e stilare la presenza di contenuti che possono avere ‘effetti negativi’ sui processi elettorali e la sicurezza pubblica (punto 1c) in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori (punto 1d).
Art. 35 = I gestori devono attenuare i rischi individuati modificando gli algoritmi di moderazione, cancellando i contenuti di ‘incitamento all'odio’ e attraverso misure di sensibilizzazione (punto 1c).
Art. 36 = Durante i periodi di crisi (= grave minaccia per la sicurezza pubblica o la salute pubblica nell'Unione) la Commissione europea può imporre ai gestori dei servizi di applicare ulteriori misure per impedire gli ‘effetti negativi’ indicati nell'Art. 34.
Art. 37 = I gestori devono dare i dati degli utenti ad organizzazioni indipendenti per ‘revisioni indipendenti’ sul loro operato (punto 2).
Art. 40 = La commissione europea ha accesso ai dati relativi agli utenti su internet per monitorare il rispetto del regolamento da parte dei gestori (punto 1).
Art. 45 = I gestori possono stabilire insieme alla Commissione europea eventuali codici di condotta, cioè le regole per ammettere i contenuti online e l'accesso alle piattaforme (punto 2).
Art. 48 = I gestori e la Commissione europea possono decidere insieme di introdurre dei protocolli di crisi per affrontare situazioni di emergenza (circostanze straordinarie che incidono sulla sicurezza pubblica o sulla salute pubblica).