Colombia: la ricerca mostra che oltre il 60% dei chatbot AI fornisce notizie sbagliate, mettendone in discussione la credibilità

Colombia: la ricerca mostra che oltre il 60% dei chatbot AI fornisce notizie sbagliate, mettendone in discussione la credibilità

Secondo un nuovo studio del Center for Digital Journalism della Columbia Journalism Review, gli strumenti di ricerca AI più diffusi forniscono informazioni errate o fuorvianti in oltre il 60% dei casi quando rispondono alle domande. Si tratta di un risultato preoccupante perché questi strumenti non solo minano la fiducia del pubblico nell'informazione, ma espongono anche gli editori a una perdita sia di traffico che di entrate.

I ricercatori hanno testato otto chatbot con intelligenza artificiale generativa, tra cui ChatGPT, Perplexity, Gemini e Grok, chiedendo loro di riconoscere estratti di 200 recenti articoli di giornale. I risultati hanno mostrato che oltre il 60% delle risposte erano errate e che questi chatbot spesso inventavano titoli, non citavano articoli o riportavano contenuti non autorizzati. Anche quando identificano correttamente l'editore, spesso i link puntano a URL non funzionanti, versioni ripubblicate o pagine prive di attinenza con il contenuto.

Purtroppo, questi chatbot raramente hanno espresso incertezza, fornendo invece risposte errate con inappropriata sicurezza. Ad esempio, ChatGPT ha fornito 134 errori su 200 query, ma ha espresso dubbi solo 15 volte. Anche le versioni a pagamento di Perplexity Pro e Grok3 non hanno avuto altrettanto successo, con un numero maggiore di risposte errate, nonostante costino rispettivamente 20 e 40 dollari al mese.

Per quanto riguarda le citazioni dei contenuti, diversi chatbot non sono riusciti a seguire i tentativi degli editori di limitare i contenuti e cinque chatbot hanno addirittura ignorato lo standard ampiamente accettato, il Bot Exclusion Protocol. Perplexity è riuscita a citare correttamente gli articoli del National Geographic anche dopo che l'editore ha limitato il suo crawler. Contemporaneamente, ChatGPT ha ricitato l'articolo di USA Today dietro pagamento tramite Yahoo News non autorizzato.

Inoltre, molti chatbot indirizzano gli utenti ad articoli ristampati su piattaforme come AOL o Yahoo, anziché alla fonte originale, anche quando sono stati raggiunti accordi di licenza con aziende di intelligenza artificiale. Ad esempio, Perplexity Pro ha citato una versione ristampata del Texas Tribune, ma non è riuscita a indicarne la corretta attribuzione. Grok3 e Gemini inventano spesso URL, con 154 delle 200 risposte di Grok3 che rimandano a pagine di errore.

La ricerca evidenzia la crescente crisi che stanno affrontando le organizzazioni giornalistiche. Sempre più americani si rivolgono agli strumenti di intelligenza artificiale come fonte di informazioni, ma a differenza di Google, i chatbot non indirizzano il traffico verso i siti web. Invece, riassumono il contenuto senza linkare, facendo perdere agli editori entrate pubblicitarie. Danielle Coffey della News Media Alliance ha avvertito che senza controlli sui crawler, gli editori non sarebbero in grado di "monetizzare efficacemente contenuti di valore o pagare gli stipendi dei giornalisti".

Quando il team di ricerca ha contattato OpenAI e Microsoft, questi hanno difeso le loro pratiche ma non hanno risposto ai risultati specifici della ricerca. OpenAI ha affermato di “rispettare le preferenze degli editori” e di aiutare gli utenti a “scoprire contenuti di qualità”, mentre Microsoft ha affermato di seguire il protocollo “robots.txt”. I ricercatori hanno sottolineato che le pratiche di citazione errate rappresentano un problema sistemico e non un fenomeno che riguarda singoli strumenti. Hanno invitato le aziende di intelligenza artificiale a migliorare la trasparenza, l’accuratezza e il rispetto dei diritti degli editori.

Da AIbase

<<:  Sensor Tower: TOP50 dei ricavi globali degli editori mobili del 2024

>>:  Sì! Gli esperti del Peking Union Medical College hanno affermato che se in casa ci sono persone anziane, è necessario consultare immediatamente un medico quando si verificano queste 8 situazioni...

Consiglia articoli

Consigli su come proteggersi dall'Helicobacter pylori

Autore: Tao Na Unità: Ospedale Nansha del Guangzh...

La sfortunata concorrenza della TV via Internet dipende ancora dai contenuti

Il mese scorso, in seguito al divieto imposto dal...

Uomini, dovete capire il dolore che provano le donne!

Contenuto da : Gu Zhuowei Shanghai Jiao Tong Univ...

Cogli le 3 opportunità d'oro per bruciare i grassi e perdere grasso

Molte persone provano tutti i tipi di metodi per ...