ora più governi europei stanno valutando la possibilità di vietare ChatGPT

La primavera non sta andando bene per ChatGPT. La popolare Intelligenza Artificiale (AI) OpenAI—e popolare è un eufemismo, dato il suo massiccio flusso di utenti mensili—ha dovuto fare i conti con due “rospi” nel giro di poche settimane: la prima era una lettera in cui migliaia di referenze dal tech world ha riconosciuto le proprie preoccupazioni riguardo a GPT-4 e chiede una profonda riflessione prima di procedere con un’IA più avanzata; in secondo luogo, la decisione delle autorità italiane di bloccare lo strumento tra dubbi sull’utilizzo dei dati.

Delle due notizie, la prima è quella che fa più notizia. Ma è la decisione italiana che rischia di avere una grossa sbornia per OpenAI, la società dietro ChatGPT. La ragione? Altri paesi sembrano aver preso nota.

Cosa ha fatto l’Italia? Premi il pulsante “pausa” di ChatGPT. Garante, l’organismo italiano preposto alla protezione dei dati, ha deciso nei giorni scorsi di bloccare l’IA nel Paese dopo che era stata rilevata due particolarità: raccolta illegale di dati e mancanza di un sistema di verifica dell’età dei minori.

Nonostante sia stato adottato “immediatamente”, l’organismo di vigilanza ha chiarito che il provvedimento – che limita il trattamento dei dati degli utenti italiani da parte di OpenAI – è temporaneo e ha concesso all’azienda 20 giorni per dimostrare il proprio rispetto della legge. Al momento è stata aperta un’inchiesta.


E qual è il motivo? Nello sviluppare la sua argomentazione, l’organizzazione italiana lamenta la mancanza di informazioni e si concentra sulla raccolta di dati personali. “Nessuna informazione è stata fornita agli utenti o agli interessati i cui dati sono stati raccolti da OpenAI. Ancora più importante, non sembra esserci alcuna base giuridica che giustifichi la massiccia raccolta e il trattamento dei dati personali per ‘addestrare’ gli algoritmi su cui si basa la piattaforma”, concludere.

L’agenzia italiana ha inoltre confermato che, sebbene il servizio OpenAI dovrebbe essere rivolto a persone di età superiore ai 13 anni, non esiste alcun meccanismo di verifica dell’età per gli utenti. “Questo espone i bambini a risposte completamente inappropriate per la loro età e conoscenza”. commento.

E altri paesi? La decisione dell’Italia è stata seguita da altri Paesi, che hanno assistito anche alla diffusione dei chatbot e del motore OpenAI. Minimo –spiegato a Reuters l’avvocato Dessislava Savova – lo ha dimostrato GDPR potrebbe offrire “strumenti ai regolatori per impegnarsi a plasmare il futuro dell’intelligenza artificiale”. Non solo quello.

Reuters ha affermato che le autorità di regolamentazione francesi e irlandesi hanno contattato le loro controparti italiane per ulteriori informazioni sui passi che hanno recentemente intrapreso. Nella stessa settimana, il ministro francese per la transizione digitale, Jean Noël-Barrot, è mostrato ma contro il divieto di ChatGPT.

Sono gli unici casi? Recentemente Giornale handelsblatt pubblicato che la Germania possa seguire l’esempio dell’Italia nel garantire la protezione dei dati. “In linea di principio, tali azioni sono possibili anche in Germania”, ha affermato un portavoce del Commissario federale per la protezione dei dati, Ulrich Kelber. “Stiamo seguendo il regolatore italiano”, abbondano in Irlanda.

In Spagna, l’Agenzia per la protezione dei dati (AEPD) ha spiegato pochi giorni fa di non aver ricevuto al momento alcun reclamo su ChatGPT, anche se ha chiarito: “L’agenzia sta seguendo da vicino gli sviluppi di questa tecnologia, che potrebbe avere un impatto significativo su diritti delle persone”. Proprio per questo, sottolineano, “non si possono escludere future ricerche”.

E l’OpenAI? Cosa è stato detto? L’azienda con sede negli Stati Uniti ha pubblicato un articolo sul suo blog in cui, tra le altre cose, discute l’uso dei dati e la privacy degli utenti: “Sebbene alcuni dei nostri dati di addestramento includano informazioni personali disponibili su Internet, vogliamo che il nostro modello impari a conoscere il mondo, non sugli individui. Ci sforziamo di rimuovere le informazioni personali dal set di dati di addestramento quando possibile.” firma sottolineataQuello rispondi per Per l’Italia.

La sua voce non era l’unica che si sentiva ultimamente. Ursula Pachi, vicedirettore dell’Organizzazione europea dei consumatori (BEUC) ha affermato di recente intervista a euronews che i passi compiuti in Italia dovrebbero servire come “una sorta di monito per l’Unione europea”. “Sebbene le agenzie europee abbiano lavorato alla legge sull’IA, non entrerà in vigore per altri quattro anni. E stiamo vedendo quanto velocemente si sviluppano”.

Immagine di copertina: Levart_Photographer (Rimuovi schizzi)

A Xataka: Samsung si sta sbarazzando di ChatGPT presso i suoi produttori di chip: ci sono ottime ragioni per farlo

Daniel Jensen

"Pop culture geek. Passionate student. Communicator. Thinker. Professional web evangelist."