Seguici sui social

EU

Una strategia intelligente #AI può convincere l'UE che la moderazione dei contenuti di #Facebook è all'altezza?

SHARE:

Pubblicato il

on

Usiamo la tua registrazione per fornire contenuti nei modi in cui hai acconsentito e per migliorare la nostra comprensione di te. È possibile disdire in qualsiasi momento.

Il 17 febbraio, durante l'incontro con i politici europei a Bruxelles, il CEO di Facebook Mark Zuckerberg (nella foto) ha pubblicato un white paper che delinea la sua strategia per gestire contenuti dannosi su piattaforme di social media. In risposta al desiderio dell'Unione europea di rafforzare la supervisione del settore tecnologico, il miliardario ha sostenuto che l'industria dovrebbe essere regolata a livello globale, piuttosto che locale.

Ha inoltre sostenuto che la responsabilità delle società tecnologiche per i contenuti dannosi sulle loro piattaforme dovrebbe essere limitata, purché siano in atto efficaci sistemi di moderazione dei contenuti. I suggerimenti di Zuckerberg, tuttavia, hanno ricevuto un ricevimento decisamente gelido a Bruxelles. Anche dopo aver incontrato Zuckerberg, l'UE ha sostenuto che la nuova proposta di moderazione dei contenuti di Facebook non è riuscita su molti fronti, in particolare non riuscendo a delineare i passi concreti che la piattaforma avrebbe intrapreso per combattere i contenuti illegali online. "Non è abbastanza. È troppo lento, troppo basso in termini di responsabilità e regolamentazione ”, ha commentato il commissario per la strategia dati Thierry Breton dopo essersi seduto con il massimo dirigente di Facebook.

Dove sta andando a mancare l'attuale sistema di Facebook?

I giganti della tecnologia hanno una finestra abbastanza stretta in cui convincere i politici europei che i loro sforzi per contenere i contenuti problematici sono sufficienti. La legge sui servizi digitali della Commissione, la tanto attesa revisione della direttiva UE sul commercio elettronico di 20 anni, dovrebbe essere introdotta entro la fine dell'anno. Come ha osservato Breton, "se vediamo che [il processo di Facebook per la moderazione dei contenuti] non è ciò di cui abbiamo bisogno per quanto riguarda i nostri standard, dovremo regolarlo e inserirlo nel nostro [Digital Services Act]".

Facebook è determinato a essere in grado di risolvere il problema stesso della moderazione dei contenuti, utilizzando i progressi dell'Intelligenza Artificiale (AI) e dell'apprendimento automatico per potenziare il suo sistema attuale. Il compito spinoso di identificare e rimuovere materiale problematico è attualmente esternalizzato a professionisti di terze parti che usano la loro discrezione per determinare perché un'immagine o un video siano discutibili.

Fare affidamento su tale supervisione umana è problematico data la natura raccapricciante di alcuni moderatori di contenuti che sono costretti a vagliare; il fatto che i dipendenti che moderano i contenuti per Facebook a Lisbona, Dublino e Varsavia abbiano attestato che il loro lavoro ha dato loro PTSD è sicuro di alzare bandiere rosse nelle istituzioni europee. Inoltre, l'efficacia della moderazione umana è stata messa in discussione dopo che Facebook ha ripetutamente fallito nel rimuovere rapidamente contenuti dannosi come lo streaming live 2019 dell'attacco alla moschea di Christchurch.

L'intelligenza artificiale può collegare alcuni dei punti ciechi di Facebook

pubblicità

L'intelligenza artificiale ha il potenziale per ridurre significativamente tale dipendenza dalla moderazione umana. Gli algoritmi addestrati dall'apprendimento automatico possono supportare i moderatori non solo riducendo la loro esposizione a contenuti online dannosi, ma anche aumentando la loro produttività e accuratezza. Facebook afferma di aver finora visto risultati promettenti nei suoi esperimenti con l'IA: secondo la piattaforma, durante la seconda metà del 2019 la piattaforma è riuscita a contrassegnare il 99.8% dei contenuti grafici e il 99.5% della nudità e dello sfruttamento dei bambini ancor prima che gli utenti li segnalassero . Ovviamente, la tecnologia ha ancora bisogno di perfezionamento, gli algoritmi di moderazione dei contenuti basati sull'intelligenza artificiale continuano ad avere difficoltà a riconoscere, ad esempio, le sfumature dei discorsi di odio, una questione di cui l'Unione europea è particolarmente preoccupata.

Inoltre, l'Unione europea diffida dal consentire a Facebook un regno libero nello sfruttamento di una tecnologia così sensibile come l'IA. Queste preoccupazioni derivano principalmente dalla scarsa esperienza di Facebook nel soddisfare gli standard di trasparenza europei, aumentando lo spettro secondo cui la società potrebbe sviluppare "algoritmi black-box" che impediscono audit di terze parti o governativi sulla piattaforma.

Al centro della politica digitale, pubblicata la scorsa settimana dallo zar digitale e capo della concorrenza dell'UE, Margrethe Vestager, sta regolando il modo in cui le aziende usano l'intelligenza artificiale. Mentre l'UE vuole che i governi ne monitorino gli aspetti più rischiosi, come l'uso della tecnologia di riconoscimento facciale, molte app nel cortile di casa dell'Europa stanno dimostrando come può essere usato in modo sicuro ed efficace. Facebook può prendere spunto da loro?

Le app di social media di nuova generazione lasciano il segno usando l'IA in modo innovativo

Un'app europea in particolare ha sfruttato in modo creativo l'intelligenza artificiale per offrire ai suoi giovani utenti un'esperienza più sicura e piacevole. Yubo, un'app di streaming live per età compresa tra 13 e 25 anni, si basa su un equilibrio tra algoritmi complessi e formazione dei giovani sui danni online per mantenere i suoi 20 milioni di utenti al sicuro sulla piattaforma. Un algoritmo accuratamente addestrato rileva contenuti problematici come la nudità o qualcuno solo nelle loro mutande in un flusso dal vivo - che è quando il sistema di intervento in tempo reale di Yubo entra in azione, inviando un messaggio di avviso agli utenti spiegando perché tale comportamento è discutibile. Se l'utente non corregge il proprio comportamento, lo stream può essere chiuso in remoto.

Al fine di garantire che l'app sia riservata a adolescenti e giovani adulti, nel frattempo Yubo ha stretto una partnership con il famoso provider di identità digitale con sede nel Regno Unito, Yoti, che abbina i documenti di identificazione caricati ai selfie dell'utente utilizzando un software di riconoscimento facciale. La tecnologia di Yoti, che viene anche implementata nei supermercati per assicurarsi che i minori di 18 anni non stiano acquistando prodotti soggetti a restrizioni come sigarette o alcolici, può essere impiegata da altre app di social media per "sbilanciare" la loro comunità o per assicurarsi che chi dicono di essere.

I tentativi di Yubo di stroncare il contenuto online problematico sul nascere, combinando la moderazione assistita dal computer con la sensibilizzazione dei giovani utenti sulle cose da fare e sulle cose da non fare del buon protocollo online, hanno fatto un salto nel settore tecnologico. Dovrebbero anche fornire un esempio incoraggiante sia ai giganti della tecnologia come Facebook sia ai regolatori come l'Unione Europea che le piattaforme di social media possono trovare un sano equilibrio tra l'eccessiva dipendenza dall'IA o il controllo umano.

L'intelligenza artificiale non è una cura per le sfide che devono affrontare le piattaforme dei social media. Mentre Facebook cerca di convincere l'UE di essere in grado di moderare i propri contenuti, tuttavia, sarebbe ben servita prendendo spunto dalle app di nuova generazione che sono riuscite a sviluppare una strategia olistica, incorporando l'IA, per mantenere i loro utenti al sicuro .

Condividi questo articolo:

EU Reporter pubblica articoli da una varietà di fonti esterne che esprimono un'ampia gamma di punti di vista. Le posizioni assunte in questi articoli non sono necessariamente quelle di EU Reporter.

Trending