Meta lancia un sistema di moderazione gratuito che permette di scovare online contenuti di stampo terroristico.
In un articolo pubblicato sul blog di Meta, un dirigente dell’azienda ha annunciato l’istituzione di un sistema cooperativo per combattere più efficacemente i contenuti terroristici su Internet.
Meta: nuovo sistema open source per individuare contenuti terroristici in rete
Se Meta, come molte aziende tech nel 2022, ha licenziato gran parte della propria forza lavoro, non è di quelle che stanno abbandonando la moderazione. Lungi dall’essere irreprensibile in questo campo, l’azienda di Mark Zuckerberg vi dedica ancora risorse significative.
Anche se il gruppo occuperà – dal prossimo mese – la presidenza del Global Internet Forum for the Fight against Terrorism, svela oggi un progetto per trattare la moderazione in modo diverso, chiamato Hasher Matcher Actioner (HMA).
Nick Clegg, uno dei dirigenti senior di Meta, ha pubblicato un post sul blog in cui presenta questo strumento in occasione della futura presidenza GIFCT dell’azienda. Questo forum è una ONG – nata nel 2017 – da una partnership tra YouTube, Microsoft, Twitter e Meta.
Il suo obiettivo è chiaro: lottare contro la diffusione di contenuti terroristici, violenti ed estremisti su Internet. Altre aziende, associazioni e governi sono attivamente coinvolti in tal senso.
Nel suo post, Clegg presenta le cifre della moderazione di Meta: più di 40.000 persone lavorano alla sua applicazione e l’azienda ha investito più di 5 miliardi di dollari l’anno scorso. Spiega, inoltre, che l’esperienza accumulata negli anni consente di essere più efficienti in questo settore e di creare nuovi strumenti come l’HMA.
Come funziona HMA?
Clegg spiega che l’HMA si basa su un sistema e una tecnologia già esistenti e utilizzati dalla maggior parte delle principali piattaforme. In concreto, non appena un moderatore individua un contenuto che infrange le regole, lo cancella e lo inserisce in un database.
Quest’ultimo, invece di memorizzare le immagini o i video interessati, conserva solo un “hash“, una sorta di impronta digitale univoca specifica per ciascun contenuto.
Qualsiasi media pubblicato sulla piattaforma viene – quindi – confrontato con questi “hash” ed eliminato o segnalato alla moderazione se il sistema trova una corrispondenza.
Ciò consente, oltre a utilizzare uno spazio di archiviazione notevolmente inferiore, di non conservare nel proprio database immagini o video terroristici, violenti o pedofili.
Il sistema presentato da Meta non è, quindi, rivoluzionario, ma la sua forma lo è. In effetti, la grande innovazione dello stesso si basa sulla sua impostazione open source, che consente alle aziende più piccole – che ne sono state finora private – di avere accesso a questa tecnologia.
E – soprattutto – consente di mettere in comune gli “hash” di tutti i soggetti che partecipano al programma. In effetti, come ci ricorda l’autore del post, le persone che pubblicano questo tipo di contenuto raramente si accontentano di farlo su un unico supporto. Il successo dell’HMA dipenderà, quindi, in gran parte, dal fatto che venga adottato o meno dalle piattaforme di contenuti, indipendentemente dalle loro dimensioni.