ChatGPT: la lettera sulla privacy per i problemi avuti in Italia

Condividi

Dopo che il Garante della Privacy italiano ha deciso che ChatGPT non è un sito sicuro e mette a rischio la privacy dei cittadini, nessuno in Italia può più accedervi, se non con una VPN. Ma l’azienda non ha intenzione di stare in silenzio e tenta di difendersi per far comprendere che non c’è nulla di pericoloso nei loro servizi, pur riconoscendo che «come qualsiasi altra tecnologia questi strumenti comportano rischia reali, per questo lavoreremo per garantire sicurezza a tutti i livelli». La decisione presa dal Garante della Privacy sta facendo riflettere anche altri Paesi. Il mondo non è ancora pronto all’intelligenza artificiale?

chatgpt-lettera-per-la-privacy

Cos’è la chatGPT? È l’abbreviazione di Chat Generative Pre-trained Transformer ed è un modello di chat robot basato su intelligenza artificiale e machine learning sviluppato da OpenAi. Qualunque cosa tu chieda alla Chat, che sia scrivere un testo storico, immaginare una conversazione tra due persone o creare il codice per un’app, lo fa, motivo per cui ormai da settimane è un fenomeno del momento. Ma qualcosa non è andato, e in Italia è stato bloccato.

Infatti, il 20 marzo scorso, ChatGPT, il più noto software di intelligenza artificiale relazionale capace di simulare ed elaborare conversazioni umane, ha subito una perdita di dati (data breach) riguardante le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Il Garante della Privacy ha affermato in una nota: «Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria».

Scrive ancora di aver rilevato «la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma», e a dimostrarlo sono le informazioni fornite da ChatGPT non sempre corrispondono alla realtà, provocando un trattamento inesatto di dati personali.

La difesa di ChatGPT

La lettera inizia così: «OpenAI si impegna a mantenere la potente IA sicura e ampiamente vantaggiosa . Sappiamo che i nostri strumenti di intelligenza artificiale offrono molti vantaggi alle persone di oggi. I nostri utenti in tutto il mondo ci hanno detto che ChatGPT aiuta ad aumentare la loro produttività, migliorare la loro creatività e offrire esperienze di apprendimento su misura. Riconosciamo anche che, come qualsiasi tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli».

chatgpt-lettera-per-la-privacy

Quindi si spiega che come ogni cosa, anche ChatGPT ha i suoi pro e i suoi contro, quindi se da una parte aiuta con produttività e creatività, dall’altra parte ci sono alcuni rischi. Ma sembra che la società stia facendo di tutto per migliorarsi, soprattutto sottolineando che «prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni per il feedback, lavoriamo per migliorare il comportamento del modello con tecniche come l’apprendimento per rinforzo con feedback umano e costruiamo ampi sistemi di sicurezza e monitoraggio».

Quello che preoccupa più in Italia è proteggere i bambini, e ChatGPT deve averlo notato, perché un intero paragrafo si chiama proprio “proteggere i bambini“: «Richiediamo che le persone abbiano almeno 18 anni o almeno 13 anni con l’approvazione dei genitori per utilizzare i nostri strumenti di intelligenza artificiale e stanno esaminando le opzioni di verifica», e sottolineano anche come non vogliamo che la loro tecnologia sia utilizzata per odio, molestie, violenza o contenuti per adulti.

«Il nostro ultimo modello, GPT-4, ha l’82% in meno di probabilità di rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e abbiamo istituito un solido sistema per monitorare gli abusi. GPT-4 è ora disponibile per gli abbonati ChatGPT Plus e speriamo di renderlo disponibile a un numero ancora maggiore di persone nel tempo».

chatgpt-lettera-per-la-privacy

E riguardo il rispetto della privacy? «Non utilizziamo i dati per vendere i nostri servizi, fare pubblicità o creare profili di persone: utilizziamo i dati per rendere i nostri modelli più utili per le persone. ChatGPT, ad esempio, migliora con un’ulteriore formazione sulle conversazioni che le persone hanno con esso». E nonostante chiedano delle informazioni, «lavoriamo per rimuovere le informazioni personali dal set di dati di addestramento ove possibile, perfezioniamo i modelli per rifiutare le richieste di informazioni personali dei privati ​​e rispondiamo alle richieste degli individui di eliminare le loro informazioni personali dai nostri sistemi».

Questo avrà fatto rassicurare il Garante della Privacy italiano? L’Italia potrà tornare nel mondo moderno con un’intelligenza artificiale così avanti? Potete leggere la lettera completa qui.

Non perderti le nostre news!

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.