HomeNotiziePer 180 euro, ChatGPT vi rivela le informazioni private degli altri utenti....

Per 180 euro, ChatGPT vi rivela le informazioni private degli altri utenti. Un esperimento dimostra l’errore dell’intelligenza artificiale

L’intelligenza artificiale è senza dubbio il ramo della tecnologia più popolare del momento. Che si tratti di ChatGPT , il bot conversazionale di OpenAI, capace di attirare centinaia di milioni di utenti ogni giorno, o di altri aspetti come Midjourney, un’IA generativa che crea arte al volo, la verità è che nessun altro settore tecnologico gode della popolarità che questa opzione può vantare. E questo, in breve, ha portato persone da ogni angolo del mondo a cercare i limiti di una tecnologia in continua crescita. Così, come sottolinea il portale francese JeuxVideo in una recente pubblicazione, un team di ricercatori di DeepMind (la divisione AI di Google) insieme a esperti delle università di Washington, Cornell, Berkeley e del Politecnico di Zurigo ha condotto un esperimento di “hacking etico” per scoprire i punti deboli di ChatGPT. E, secondo lo studio, sembra che la sicurezza e la protezione dei dati degli utenti non siano la principale virtù del popolare bot conversazionale. A ChatGPT è stato chiesto di scrivere costantemente la parola “azienda”. Meno di 200 euro per scoprire dati privati Secondo lo studio pubblicato dai ricercatori, sono riusciti a estrarre “diversi megabyte di dati di formazione” utilizzando la versione a pagamento di ChatGPT. Per farlo, hanno investito 200 dollari, una somma equivalente a poco più di 180 euro, ma la cosa più preoccupante è che sostengono che avrebbero potuto ottenere più dati se avessero “investito più denaro”. Così, semplicemente chiedendo a ChatGPT di ripetere più volte la stessa parola, l’intelligenza artificiale si blocca e inizia a sputare i dati personali degli altri utenti che utilizzano il bot OpenAI. In modo preoccupante, sostengono che avrebbero potuto ottenere più dati se avessero “investito più denaro”A titolo di esempio, hanno fatto notare che gli hanno chiesto di digitare costantemente la parola “azienda”. Sorprendentemente, l’IA lo ha fatto, ma in cambio ha restituito blocchi di 50 righe di informazioni sensibili come numeri di telefono ed e-mail. Secondo i ricercatori, questa situazione si ripete in 1 test su 20, il che la rende una falla di sicurezza piuttosto grave. Di conseguenza, tutti i malintenzionati hanno la possibilità di utilizzare l’IA per accedere ai dati privati di altri utenti, un aspetto che dimostra l’errore di OpenAI in materia di sicurezza, che purtroppo non è la prima volta che si verifica.In 3DGames: gli NFT sono sempre più lontani dai videogiochi. Il negozio GameStop annuncia la chiusura della piattaforma di vendita di token In 3DGames | Steam sta permettendo troppo presto e con troppa leggerezza l’uso dell’IA nel suo negozio, e non si rende conto del problema che crea

RELATED ARTICLES

Commenta!

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.