ChatGPT e Google Bard, fai attenzione prima di usarli: non hai idea di quello che potrebbe succedere

ChatGPT e Google Bard sono le grandi novità tecnologiche di questi ultimi tempi. Purtroppo però non tutti fanno un uso costruttivo di questi strumenti, e i rischi potenziali sono molto gravi.

A lanciare l’allarme è NewsGuard, un sito di fact checking che valuta la credibilità di notizie e informazioni e di recente ha messo alla prova Google Bard, somministrandogli 100 fake news ben radicate e chiedendo al chatbot di elaborarle per sviluppare nuovi contenuti. Il risultato è a dir poco inquietante: Bard “ha generato articoli pieni zeppi di disinformazione basati su 76 notizie false“.

ChatGPT risxchi tecnologie fake news google bard
Bard e simili sono raggirabili con estrema facilità e possono essere usati come generatori di fake news. (Pixabay – Grantennistoscana.it)

E a gennaio, come riporta sempre NewsGuard, il modello GPT-3.5 di OpenAI (che alimenta la versione gratuita di ChatGPT) ha generato contenuti attingendo a 80 fake news su 100. Mentre l’ultimo modello GPT-4, ironia della sorte, ha fatto addirittura di peggio, sfornando “affermazioni fuorvianti per tutte e 100 le false notizie” con cui è stato testato.

Le insidie nascoste di ChatGPT e Google Bard

Altri test hanno confermato che Bard e simili sono raggirabili con estrema facilità e possono essere usati come generatori di fake news – dai complotti sui vaccini a quelli sul clima, passando per finti decessi e attentati – con espedienti elementari. Del resto, Google e OpenAI sono i primi ad ammettere che i loro chatbot non sono infallibili. In particolare, Google dichiara che Bard ha “controlli di sicurezza incorporati e meccanismi per il feedback in linea con i nostri Principi di Intelligenza Artificiale”, ma può “fornire informazioni imprecise o dichiarazioni offensive”. E OpenAI ammette che le risposte di ChatGPT “possono essere imprecise, non veritiere e fuorvianti”.

ChatGPT rischi tecnologie fake news google bard
Sia su Bard sia su ChatGPT è possibile segnalare risposte false o offensive. (Pixabay – Grantennistoscana.it)

Considerando la potenziale platea di utenti di queste tecnologie, il pericolo è enorme. I malintenzionati – che non mancano mai – avrebbero gioco facile a bypassare le funzioni di sicurezza del chatbot e farne un uso scorretto per diffondere disinformazioni e teorie cospirazioniste apparentemente credibili. Ecco perché dovremmo prestare estrema attenzione quando ci affidiamo ciecamente alle risposte di ChatGPT e Google Bard.

C’è da dire che Google ha pubblicato una lista di principi AI in cui sono indicate le linee guida di Bard, ed è possibile segnalare risposte false o offensive (questo anche su ChatGPT). Basterà a frenare i manipolatori e i sobillatori intenti a dare in pasto alle menti più deboli un’enorme massa di informazioni fuorvianti che possono provocare danni enormi e sconquassi sociali?

Gestione cookie