La Commissione europea pubblica linee guida per affrontare i rischi digitali delle elezioni

[xtock/Shutterstock]

Martedì (26 marzo) la Commissione europea ha pubblicato delle linee guida nell’ambito del Digital Services Act, che delineano le misure per mitigare i rischi che potrebbero avere un impatto sull’integrità delle elezioni a livello digitale.

Le elezioni del Parlamento europeo si avvicinano a giugno e dieci Paesi europei si stanno preparando per le elezioni presidenziali e parlamentari di quest’anno.

Il Digital Services Act (DSA) dell’UE, entrato in vigore il 17 febbraio, è una normativa orizzontale che regola le modalità con cui gli attori online devono affrontare i contenuti illegali e dannosi in rete.

L’anno scorso, l’esecutivo dell’UE ha annunciato il primo gruppo di piattaforme online molto grandi (VLOP) e di motori di ricerca molto grandi (VLOSE), che da allora sono stati aggiornati. Gli elenchi comprendono piattaforme come i social network Instagram e TikTok, motori di ricerca come Google Search e Bing e rivenditori come AliExpress e Zalando.

Le piattaforme di social media, ad esempio, che sono incluse negli elenchi, possono influenzare le elezioni, ad esempio attraverso contenuti generati dall’intelligenza artificiale come i deepfakes, o la diffusione di disinformazione.

La Commissione ha ora pubblicato le sue linee guida per le VLOP e le VLOSE designate, raccomandando misure di mitigazione e migliori pratiche da attuare prima, durante e dopo gli eventi elettorali.

Le piattaforme non conformi devono dimostrare un’efficacia equivalente. La Commissione ha in programma uno stress test per la fine di aprile.

Valutazione dei rischi

Le linee guida prevedono la creazione di team interni con risorse sufficienti e l’utilizzo di analisi e informazioni disponibili sui rischi specifici del contesto locale e sulle interazioni degli utenti con i loro servizi di ricerca e acquisizione di informazioni.

Suggeriscono inoltre di applicare misure di riduzione del rischio specifiche per le elezioni, personalizzate per ogni periodo e località elettorale. Ciò include la promozione di informazioni elettorali ufficiali, il lancio di programmi di alfabetizzazione mediatica, l’adeguamento dei sistemi di raccomandazione per responsabilizzare gli utenti e la riduzione della monetizzazione e della viralità dei contenuti dannosi.

Nel corso di un incontro con la stampa, martedì, un funzionario della Commissione ha osservato che la DSA prevede una valutazione del rischio specifica per ogni elezione dell’UE e che le piattaforme “devono verificare se dispongono di un numero sufficiente di moderatori di contenuti sul campo e se hanno conoscenze locali, perché ogni elezione è diversa”.

Gli esperti locali non devono necessariamente trovarsi nel Paese, ma devono avere una conoscenza sufficiente delle dinamiche di ogni specifica piattaforma, ha sottolineato il funzionario.

Il funzionario ha anche fatto notare che la Commissione sta indagando su X per una potenziale non conformità con la DSA, esprimendo la preoccupazione che X possa non avere abbastanza moderatori di contenuti per affrontare adeguatamente tutti i rischi.

Annunci politici

Secondo le linee guida, le pubblicità politiche devono essere chiaramente identificate, anticipando il prossimo regolamento sulla pubblicità politica, che mira ad aumentare la trasparenza delle campagne politiche, soprattutto online. Così da evitare possibili manipolazioni, come quelle legate allo scandalo Cambridge Analytica.

Nel novembre dello scorso anno, come riporta Euracitv, i colegislatori dell’UE hanno raggiunto un accordo sul dossier, che comprende il targeting degli annunci online e il ruolo di un nuovo archivio pubblico europeo.

L'UE concorda un regolamento sulla pubblicità politica che entrerà in vigore dopo le elezioni del Parlamento europeo

Per limitare le interferenze straniere e aumentare la trasparenza, lunedì il Consiglio e il Parlamento dell’UE hanno approvato un regolamento che armonizza i requisiti per la pubblicità politica nei vari Paesi e vieta agli attori stranieri di sponsorizzare annunci politici …

Deepfake

La Commissione suggerisce ai VLOP e ai VLOSE, le cui piattaforme potrebbero essere utilizzate per generare o diffondere contenuti generativi di IA, di valutare e affrontare i rischi legati all’IA.

Ciò include l’etichettatura dei contenuti generati dall’IA come deepfakes, l’adeguamento dei termini di servizio e l’adozione di misure di controllo adeguate.

Meta e TikTok, a cui si applica la DSA, hanno già annunciato che richiederanno l’etichettatura dei contenuti generati dall’IA, soprattutto alla luce delle prossime elezioni europee.

Il Parlamento europeo utilizza anche Instagram e TikTok di Meta per la campagna elettorale.

Martedì scorso TikTok ha anche condiviso la sua terza relazione ai sensi del Codice di condotta dell’UE sulla disinformazione, illustrando gli sforzi per promuovere informazioni affidabili prima delle elezioni dell’UE.

Dopo TikTok, Meta annuncia le misure per le elezioni europee del 2024

Meta si concentrerà sulla lotta alla disinformazione e sul contrasto ai rischi posti dall’intelligenza artificiale in vista delle elezioni del Parlamento europeo del giugno 2024, ha annunciato oggi (lunedì 26 febbraio) la società.
Meta, la società madre delle piattaforme di social …

Disinformazione

La Commissione incoraggia la collaborazione con le autorità dell’UE e nazionali, gli esperti indipendenti e le organizzazioni della società civile per facilitare lo scambio di informazioni prima, durante e dopo le elezioni. Ciò mira a consentire l’attuazione di misure di mitigazione efficaci, in particolare per quanto riguarda la manipolazione e l’interferenza dell’informazione straniera (FIMI), la disinformazione e la sicurezza informatica.

Per FIMI si intendono gli sforzi deliberati e spesso occulti di entità straniere per manipolare le informazioni o influenzare l’opinione pubblica di un altro Paese per motivi politici, strategici e di sicurezza. Ciò può comportare la diffusione di campagne propagandistiche fuorvianti o l’interferenza nei processi democratici, come le elezioni.

La Commissione raccomanda inoltre l’attuazione di misure specifiche durante le elezioni, tra cui un meccanismo di risposta agli incidenti; un piano stabilito per affrontare rapidamente gli eventi imprevisti e ridurre al minimo il loro impatto sul risultato o sull’affluenza alle urne.

Periodo post-elettorale

Secondo le linee guida, dopo le elezioni si dovrebbe valutare l’efficacia delle misure attuate. I VLOP e i VLOSE dovrebbero rilasciare pubblicamente versioni non riservate di queste revisioni, consentendo un feedback pubblico sulle strategie di mitigazione del rischio.

Le linee guida includono il contributo pubblico e la collaborazione con i coordinatori dei servizi digitali (DSC), sottolineando il controllo da parte di terzi per salvaguardare i diritti fondamentali nelle misure di mitigazione.

I DSC, incaricati dalla DSA, fanno da ponte tra le autorità di regolamentazione e le piattaforme online.

Tuttavia, otto Stati membri non li hanno ancora nominati nonostante la scadenza del 17 febbraio.

Leggi qui l’articolo originale.