Centinaia di migliaia di conversazioni con ChatGPT sono comparse nei risultati di Google e OpenAI ha cancellato tutto in fretta e furia. Ma ormai era tardi. Secondo quanto riportato da Fast Company e confermato da TechCrunch, alcune delle chat condivise, comprese quelle riguardanti salute mentale, relazioni, lavoro e richieste personali, erano perfettamente accessibili tramite una semplice ricerca.
La colpa? Una funzione chiamata “Share“, pensata per permettere agli utenti di creare un link pubblico a una chat con il chatbot. Peccato che un piccolo checkbox, apparentemente innocuo, permettesse anche di rendere la conversazione visibile nei risultati di Google.
Il risultato è stato una valanga di chat pubbliche, consultabili da chiunque digitando site:chatgpt.com/share su Google.
Tra queste, Fast Company ha individuato conversazioni delicate, come quella di un utente che chiedeva consigli per il proprio curriculum (e che era possibile ricondurre persino al suo profilo LinkedIn), un’altra in cui qualcuno parlava di come superare una crisi relazionale e persino scambi ai limiti del troll, come “Posso mettere una forchetta nel microonde?” seguiti da risposte assurde, come “Guida per evocare Satana usando il microonde”.
Dopo l’uscita dell’inchiesta, OpenAI ha ritirato completamente la funzione. Il Chief Information Security Officer, Dane Stuckey, ha definito l’esperimento “di breve durata” e ha spiegato che, sebbene fosse necessaria un’attivazione volontaria, l’errore umano era troppo facile. Insomma, troppo rischioso.
Un portavoce di OpenAI ha confermato:
“Abbiamo testato dei metodi per rendere più semplice la condivisione delle conversazioni, mantenendo però il controllo nelle mani degli utenti. Abbiamo appena concluso l’esperimento che permetteva alle chat di comparire nei motori di ricerca, ma solo se gli utenti avevano esplicitamente attivato l’opzione”.
Peccato che “esplicitamente” sia un termine troppo generico. La funzione era visibile, ma poco chiara e, in molti casi, è probabile che gli utenti non abbiano compreso appieno le conseguenze. Google, da parte sua, ha dichiarato:
“Non siamo noi a controllare ciò che viene indicizzato. La responsabilità è dei publisher”. In parole povere, OpenAI ha caricato link pubblici e Google ha fatto il suo lavoro.
A peggiorare la situazione, il Corriere della Sera ha scoperto che alcune di queste chat contenevano contenuti gravissimi. In una di queste chat, un avvocato italiano chiedeva come cacciare gli indigeni dall’Amazzonia per costruire una centrale elettrica. OpenAI ha già rimosso molte di queste conversazioni, ma oltre 100.000 link risultano ancora online.
Leggi o Aggiungi Commenti