ChatGPT contiene dati personali e testi copiati

Dei ricercatori informatici, uno dei quali è al Politecnico di Zurigo, hanno rivelato pubblicamente una falla in ChatGPT, il popolare software di OpenAI, che solleva questioni di sicurezza e privacy. Chiedendo a ChatGPT di ripetere una parola all’infinito, è possibile eludere le sue salvaguardie e accedere ai dati personali e ai testi altrui che ha memorizzato. Risulta che la più popolare app di intelligenza artificiale del pianeta è basata almeno in parte su testi presi senza permesso, e questo rischia di avere conseguenze legali per tutti i suoi utenti, che sono circa 100 milioni, oltre che per OpenAI.Quanto sono protetti i dati che condividiamo con queste intelligenze? E quali precauzioni e trucchi possiamo adottare per usarle al meglio senza incidenti e imbarazzi o per scavalcare le loro restrizioni?

Om Podcasten

Colui che mette luce laddove internet e l'informatica tutta ci sembrano assolutamente troppo complicati, semplicemente elargendo consigli, avvisi e trucchi per vivere indenni i rischi del web. Bufale della rete, truffe e virus... non ci sono segreti per il Disinformatico! Lo storico appuntamento con Paolo Attivissimo, il nostro Disinformatico di fiducia dal 2006, continua a trovare spazio in questo podcast. Ogni argomento affrontato è sviscerato anche in un articolo dedicato, che potete leggere sul blog di Attivissimo.