Spam e contenuti violenti hanno caratterizzato Facebook negli ultimi tre mesi. Ecco i dati rilasciati da The Meta.
The Meta ha pubblicato un rapporto in cui illustra i dati relativi ai contenuti violenti e allo spam veicolati su Facebook. Dai piani alti arriva la promessa: moderare più velocemente i post non in linea con le politiche della piattaforma.
The Meta ha rilasciato i dati riguardo spam e post violenti presenti su Facebook, affermando che la prevalenza di contenuti che violano le regole sui social “è rimasta relativamente coerente, ma è diminuita” in specifiche aree, prendendo in considerazione il periodo che va dal quarto trimestre dello scorso anno ai primi tre mesi del 2022.
Così, “su Facebook, nel primo trimestre, siamo intervenuti su 1,8 miliardi di post di contenuto ‘spam’, che sono aumentati dagli 1,2 miliardi del quarto trimestre 2021, a causa delle azioni di un numero ristretto di utenti che ha realizzato un grande mole di pubblicazioni” che hanno violato le politiche aziendali.
Inoltre, sono stati rimossi anche 21,7 milioni di contenuti violenti e di incitamento alla violenza.
Su Instagram, “abbiamo agito su 1,8 milioni di contenuti” sulla droga, un numero superiore agli 1,2 milioni registrati nell’ultimo trimestre dello scorso anno, “a causa degli aggiornamenti apportati alle nostre tecnologie di rilevamento proattivo“, afferma Meta nel suo report.
“Abbiamo anche visto un aumento del tasso di rilevamento proattivo di contenuti di bullismo e molestie, dal 58,8% nel quarto trimestre del 2021 al 67% nel primo trimestre del 2022, grazie al miglioramento e all’espansione della nostra tecnologia di rilevamento proattivo“, afferma Mark Zuckerberg.
Il rapporto arriva in un momento in cui The Meta sta cercando di affrontare il fenomeno delle dirette live di eventi sensibili o tragici.
Come per le precedenti sparatorie di massa come quella di Christchurch, Meta ha trovato difficoltà nel far rispettare le proprie politiche, visto che gli utenti possono, nei fatti, scaricare e creare nuove copie dei video pubblicati sulla piattaforma.
“Una delle sfide che vediamo attraverso eventi come questo riguardano il modo in cui le persone creano nuovi contenuti, nuove versioni, nuovi collegamenti esterni per cercare di eludere le nostre politiche e la nostra applicazione“, ha affermato Guy Rosen, VP of Integrity di Meta, durante una chiamata con giornalisti. “Come in ogni incidente, continueremo a perfezionare i nostri processi e i nostri sistemi per assicurarci di poter rilevare ed eliminare più rapidamente i contenuti che violano le regole“, ha concluso.
La corretta gestione del Sistema Tessera Sanitaria rappresenta un aspetto fondamentale per tutti gli operatori…
Il volto di una madre che ha perso una figlia racconta spesso più di mille…
Un silenzio solenne avvolgeva le strade, rotto solo dal suono cadenzato dei passi e dal…
Ci sono momenti in cui sembra impossibile mantenere la concentrazione. La mente vaga, le distrazioni…
La stagione fredda porta con sé molte domande sulla routine quotidiana, ma c’è un gesto…
Se c'è un momento in cui tutto sembra sospeso, è quando un atleta raggiunge un…