Un gruppo di ricercatori IBM ha dimostrato che è possibile ingannare ChatGPT e Bard inducendoli a dare risposte sbagliate. Come? Proponendo ai sistemi di AI di “giocare” e fornendo loro una serie di domande tranello dalle quali si desidera ricevere una risposta sbagliata.
Che cosa comporta ipnotizzare ChatGPT o Bard?
Attraverso un esperimento, svolto negli Stati Uniti da alcuni ricercatori di IBM, è emerso che è possibile trarre in errore i grandi modelli linguistici (LLM) come ChatGPT e Bard.
Chenta Lee, uno dei ricercatori che ha preso parte al progetto, ha evidenziato i potenziali pericoli derivanti dall’abilità dell’AI nel coinvolgere l’utente (a sui insaputa) in vari “giochi tranello“, sottolineando la possibilità che in questo modo soggetti malintenzionati possano ipnotizzare i sistemi di Intelligenza Artificiale.
Grazie a questo esperimento, i ricercatori hanno potuto constatere che ChatGPT e Bard sono in grado di violare le norme riguardanti la sicurezza degli utenti. Ad esempio, sostenendo che fosse corretto non fermarsi alla vista di un semaforo rosso.
Attraverso la manipolazione dei sistemi di Intelligenza Artificiale, ChatGPT e Bard hanno fornito informazioni fasulle circa l’uso corretto del codice stradale, in funzione di semafori, incroci o rallentatori.
Aaron Mulgrew, architetto delle soluzioni presso Forcepoint, è riuscito addirittura a far ricreare a ChatGPT un pericoloso malware, in grado di effettuare una ricerca nel sistema e indurlo ad individuare documenti specifici per poi suddividerli e convertirli in immagini e inviarli su Google Drive.
Fidarsi o non fidarsi
ChatGPT e Bard sfruttano una serie di tecniche di elaborazione del linguaggio naturale, come l’analisi semantica e la classificazione dei testi.
Di fronte a un input, ChatGPT e Bard analizzano il testo per comprenderne il significato e la struttura della frase e utilizzano le informazioni disponibili per generare una risposta.
Se questa, però, venisse trattata o snaturata attraverso l’inganno, esporrebbe gli utenti a pericoli non indifferenti che potrebbero portarli ad avere delle risposte sbagliate. E nel peggiore dei casi, anche a perdere dati confidenziali e personali.
In sostanza, l’uso dell’ “AI manipolata” potrebbe comportare gravi rischi per l’utente compresa la perdita di informazioni e dati sensibili e privati.
Esiste un’Intelligenza Artificiale incorruttibile?
Ad oggi, non esiste ancora un’AI che sia totalmente incorruttibile, in quanto qualsiasi sistema può essere soggetto a vulnerabilità e manipolazione.
Tuttavia, le organizzazioni si stanno adoperando per sviluppare sistemi di Intelligenza Artificiale con meccanismi di sicurezza solidi e robusti e capacità di autoapprendimento atte a rilevare e prevenire eventuali manipolazioni o corruzioni.
Questo include l’implementazione di rigorose procedure di testing, crittografia, autenticazione e altre misure di sicurezza per proteggere l’AI da potenziali minacce.