Spam e contenuti violenti hanno caratterizzato Facebook negli ultimi tre mesi. Ecco i dati rilasciati da The Meta.
The Meta ha pubblicato un rapporto in cui illustra i dati relativi ai contenuti violenti e allo spam veicolati su Facebook. Dai piani alti arriva la promessa: moderare più velocemente i post non in linea con le politiche della piattaforma.
The Meta ha rilasciato i dati riguardo spam e post violenti presenti su Facebook, affermando che la prevalenza di contenuti che violano le regole sui social “è rimasta relativamente coerente, ma è diminuita” in specifiche aree, prendendo in considerazione il periodo che va dal quarto trimestre dello scorso anno ai primi tre mesi del 2022.
Così, “su Facebook, nel primo trimestre, siamo intervenuti su 1,8 miliardi di post di contenuto ‘spam’, che sono aumentati dagli 1,2 miliardi del quarto trimestre 2021, a causa delle azioni di un numero ristretto di utenti che ha realizzato un grande mole di pubblicazioni” che hanno violato le politiche aziendali.
Inoltre, sono stati rimossi anche 21,7 milioni di contenuti violenti e di incitamento alla violenza.
Su Instagram, “abbiamo agito su 1,8 milioni di contenuti” sulla droga, un numero superiore agli 1,2 milioni registrati nell’ultimo trimestre dello scorso anno, “a causa degli aggiornamenti apportati alle nostre tecnologie di rilevamento proattivo“, afferma Meta nel suo report.
“Abbiamo anche visto un aumento del tasso di rilevamento proattivo di contenuti di bullismo e molestie, dal 58,8% nel quarto trimestre del 2021 al 67% nel primo trimestre del 2022, grazie al miglioramento e all’espansione della nostra tecnologia di rilevamento proattivo“, afferma Mark Zuckerberg.
Il rapporto arriva in un momento in cui The Meta sta cercando di affrontare il fenomeno delle dirette live di eventi sensibili o tragici.
Come per le precedenti sparatorie di massa come quella di Christchurch, Meta ha trovato difficoltà nel far rispettare le proprie politiche, visto che gli utenti possono, nei fatti, scaricare e creare nuove copie dei video pubblicati sulla piattaforma.
“Una delle sfide che vediamo attraverso eventi come questo riguardano il modo in cui le persone creano nuovi contenuti, nuove versioni, nuovi collegamenti esterni per cercare di eludere le nostre politiche e la nostra applicazione“, ha affermato Guy Rosen, VP of Integrity di Meta, durante una chiamata con giornalisti. “Come in ogni incidente, continueremo a perfezionare i nostri processi e i nostri sistemi per assicurarci di poter rilevare ed eliminare più rapidamente i contenuti che violano le regole“, ha concluso.
A quasi un anno dalla morte di Giulia Cecchettin, evento brutale che ha acceso un’ulteriore…
E sono sempre di più gli italiani che vorrebbero andare in pensione in anticipo. Per…
Lazio, l'utente mostra quanto spende per una cena: il costo è davvero insolito e scatena…
Quest'uomo trova una strana scatola nel bidone della spazzatura e quello che scopre mette davvero…
Vendi e guadagna con le tue creazioni: con 3 bottoni crei l'impensabile e piace molto…
In arrivo arretrati fino a 4000 euro: ecco per chi sono. Proprio questi cittadini italiani…