Tweet creati dall’intelligenza artificiale più credibili rispetto a quelli scritti dall’uomo: ecco i risultati di un recente studio.
Gli algoritmi di generazione automatizzata del linguaggio naturale (NLP) utilizzati per creare tweet generati dall’IA sono in continua evoluzione e miglioramento. Possono essere addestrati su enormi quantità di testo e dati per apprendere modelli di linguaggio complessi e produrre risultati convincenti, tanto da renderli più affidabili, rispetto a quelli scritti dall’uomo. Ecco i dati che sono emersi da un recente studio.
L’intelligenza artificiale crea tweet più attendibili di quelli pubblicati dall’uomo: i risultati di un recente studio
Secondo uno studio condotto dall’Istituto di Etica Biomedica e Storia della Medicina dell’Università di Zurigo, si è scoperto che le persone dimostrano una notevole predisposizione a fidarsi maggiormente dei tweet generati da un’intelligenza artificiale rispetto a quelli scritti da esseri umani.
L’obiettivo di questo sondaggio era quello di verificare se le persone fossero in grado di operare una distinzione tra i tweet scritti da un individuo comune e quelli generati da GPT-3, una versione precedente del linguaggio di modellazione generativa (LLM) che è alla base di ChatGPT.
I risultati di questa ricerca hanno sorpreso gli studiosi, poiché hanno rivelato una tendenza inequivocabile a considerare l’intelligenza artificiale come una fonte più affidabile per le informazioni comunicate attraverso i tweet.
Ciò potrebbe essere attribuito alla percezione che l’intelligenza artificiale sia immune da pregiudizi, influenze personali o obiettivi nascosti, aspetti spesso associati all’essere umano.
Tuttavia, è importante sottolineare che l’obiettivo finale di questa ricerca non è semplicemente la preferenza delle persone, piuttosto comprendere il modo in cui l’interazione con le intelligenze artificiali influisce sulle percezioni individuali e collettive.
Questa scoperta apre interessanti prospettive sul ruolo che l’intelligenza artificiale può giocare nel campo della comunicazione, incoraggiando la riflessione sulle dinamiche sociali e culturali che influenzano la fiducia umana nelle informazioni provenienti da fonti diverse.
Lo studio
I ricercatori hanno portato avanti uno studio per valutare se le persone riuscissero a distinguere tra i tweet generati da un’intelligenza artificiale (IA) e quelli scritti da esseri umani.
I partecipanti sono stati anche invitati a valutare la veridicità delle informazioni contenute nei tweet.
Gli argomenti dei tweet riguardavano temi scientifici soggetti a disinformazione come i vaccini, il COVID-19, i cambiamenti climatici e l’evoluzione.
Il modello di IA utilizzato per generare i tweet è stato ChatGPT. I risultati dello studio hanno mostrato che le persone hanno avuto difficoltà nel distinguere tra i tweet generati dall’IA e quelli scritti dagli esseri umani.
Inoltre, hanno anche faticato a identificare la veridicità delle informazioni nei tweet, soprattutto quando si trattava di argomenti scientifici soggetti a disinformazione.
Questi risultati sottolineano la sfida di combattere la diffusione della disinformazione online e l’importanza di sviluppare nuovi strumenti e competenze per affrontare questo problema sempre crescente.
Giovanni Spitale, ricercatore presso l’Università di Zurigo, ha sottolineato che le tecnologie come l’intelligenza artificiale possono essere strumentalizzate per diffondere disinformazione su qualsiasi argomento.
Ha sostenuto che queste tecnologie non sono né buone né cattive, ma semplicemente amplificano “l’intenzionalità umana“.
Nello studio in questione, è importante considerare anche altre limitazioni. Ad esempio, i partecipanti dovevano valutare i tweet senza il contesto completo e non avevano la possibilità di verificare il profilo Twitter dell’autore del contenuto.
I risultati potrebbero essere stati diversi se fosse stato possibile leggere tweet precedenti o visualizzare l’immagine del profilo dell’account.
Ciò suggerisce che una visione più completa dei tweet e delle informazioni di contorno potrebbe influenzare la percezione e la valutazione dei contenuti generati dall’IA.
I tweet generati dall’IA sono affidabili al 100%?
Ci sono alcune considerazioni importanti da tenere a mente, al di là dello studio in merito a questa particolare tematica di cui vi abbiamo parlato nel paragrafo precedente.
Ci si pone la seguente domanda: le informazioni veicolate dall’IA nei tweet sono completamente attendibili? Bisogna vagliare, in tal senso, i seguenti aspetti.
In primo luogo, poiché gli algoritmi dell’IA imparano dai dati a disposizione, se quelli che vengono utilizzati per addestrarli sono obsoleti, distorti o parziali, ciò potrebbe influire sulla qualità e sulla credibilità delle informazioni generate.
In secondo luogo, gli algoritmi di IA sono molto bravi a produrre testo coerente e naturale, ma ciò non implica necessariamente che le informazioni contenute nei tweet generati siano accurate o veritiere.
L’IA può combinare parole e frasi in modo creativo, ma potrebbe non avere una comprensione profonda dei concetti o delle situazioni specifiche a cui si riferisce.
Infine, l’elemento umano è ancora molto importante per la valutazione della credibilità delle informazioni.
Gli esseri umani possono applicare il ragionamento critico, l’esperienza personale e la conoscenza specialistica per valutare la validità delle informazioni presentate in un tweet.
Gli esseri umani hanno anche la capacità di esprimere emozioni e opinioni che possono influenzare la credibilità del contenuto.
L’IA, invece, potrebbe non avere una comprensione delle sfumature emotive o dei contesti sociali specifici.
In definitiva, anche se gli algoritmi di IA sono in grado di produrre tweet che sembrano convincenti, la valutazione della credibilità rimane una responsabilità umana.
La combinazione di conoscenze umane e assistenza AI può essere utile per ottenere informazioni accurate e credibili dai social media.