Conversazioni private con ChatGPT trapelate in un posto inaspettato a causa di un bug

OpenAI
Crediti: OpenAI

OpenAI, l’azienda creatrice del popolare chatbot AI ChatGPT, si trova ancora una volta al centro di una controversia legata alla privacy.

Secondo recenti resoconti, una falla nel sistema avrebbe causato la divulgazione involontaria di conversazioni private degli utenti, finite in un luogo tanto inaspettato quanto allarmante: Google Search Console (GSC). Questo incidente solleva nuovi e seri interrogativi sulla sicurezza dei dati affidati alle intelligenze artificiali.

ChatGPT, conversazioni private trapelate su Google Search Console

OpenAI ChatGPT GPT-5
Crediti: OpenAI

Il caso, forse uno dei più singolari emersi finora, suggerisce che le query private inviate dagli utenti a ChatGPT siano diventate visibili all’interno del sistema di Google Search Console, una piattaforma utilizzata principalmente da sviluppatori e professionisti del web per monitorare il traffico di ricerca e le prestazioni del proprio sito sui motori di ricerca. Non è affatto il luogo dove ci si aspetterebbe di veder comparire dialoghi personali e potenzialmente sensibili.

Secondo un report di Ars Technica, OpenAI ha confermato l’esistenza del problema, attribuendolo a un “glitch“. L’azienda ha dichiarato che l’anomalia è stata risolta e ha interessato solo un “piccolo numero di query di ricerca“. Tuttavia, la natura stessa della falla ha destato notevole preoccupazione. L’esposizione, anche se limitata, ha reso di fatto pubbliche, all’interno di uno strumento tecnico, informazioni che gli utenti ritenevano confidenziali.

Come hanno fatto queste chat a finire su GSC?

Sebbene OpenAI non abbia confermato né smentito ufficialmente la teoria, una spiegazione plausibile è stata avanzata da Jason Packer, proprietario della società di consulenza Quantable, tra i primi a segnalare il problema lo scorso ottobre. Packer ipotizza che l’incidente possa essere legato a una pratica di “scraping” da parte di OpenAI.

In sostanza, per rispondere alle richieste degli utenti, ChatGPT potrebbe aver interrogato Google, e nel farlo, avrebbe inavvertitamente “riflesso” queste query nel sistema di monitoraggio di Google.

Questa pratica, lo scraping online, è diventata una scorciatoia comune per molte aziende di AI per trovare rapidamente risposte alle domande degli utenti. Tuttavia, è una zona grigia dal punto di vista legale ed etico, con diverse aziende che si sono trovate in acque agitate per aver “raschiato” illegalmente siti web che ne vietavano la pratica. Sebbene OpenAI affermi di aver risolto il bug, Packer rimane scettico sulla sua completa eliminazione, specialmente se la causa principale – lo scraping di Google – non viene affrontata.

I chatbot AI non sono privati

Questo episodio non è un caso isolato per OpenAI ed evidenzia una verità spesso scomoda: i chatbot online non sono privati. L’incidente si aggiunge a una lista crescente di preoccupazioni sulla privacy che circondano queste nuove tecnologie, inclusi casi legali in cui è stata richiesta la cronologia completa delle chat.

Molti utenti hanno iniziato a fare affidamento su ChatGPT e altri chatbot non solo per lavoro, ma anche come sostituti di amici o persino terapeuti, condividendo informazioni estremamente personali. Sebbene OpenAI abbia tentato di porre un freno a questi utilizzi, specialmente dopo essere stata citata in giudizio dai genitori di un adolescente deceduto, i problemi continuano a emergere.

Questo leak è un duro promemoria dei pericoli sempre presenti che circondano i chatbot. Utilizzare un servizio di AI online significa, di fatto, cedere il controllo sui propri dati. Non c’è alcuna garanzia reale su dove queste informazioni andranno a finire.

Chiunque intenda utilizzare regolarmente ChatGPT o qualsiasi altro chatbot AI farebbe bene a essere estremamente cauto su ciò che condivide. Quelle che si ritengono conversazioni private potrebbero, un giorno, finire in un posto dove non dovrebbero assolutamente essere.