L’Italia ha pubblicato le condizioni alle quali ChatGPT può tornare ad operare

Il Garante per la protezione dei dati personali italiano afferma che “OpenAI raccoglie dati personali senza alcuna base giuridica”. L’operatore ChatGPT giustifica la raccolta e l’archiviazione dei dati personali con il fatto che è necessario addestrare gli algoritmi su cui opera la piattaforma.

Inoltre, gli utenti non sarebbero nemmeno informati che i loro dati vengono archiviati.

I funzionari sono anche infastiditi dal fatto che ChatGPT non controlli in alcun modo l’età degli utenti. Nonostante le affermazioni dei rappresentanti dell’azienda OpenAI secondo cui il chatbot può essere utilizzato da persone di età superiore ai 13 anni, il sito Web del servizio non controlla in alcun modo l’età degli utenti, il che è contrario alla legislazione vigente.

Non ci sono restrizioni, solo divieti. Gli italiani hanno perso ChatGPT

Internet e computer

Il regolatore ha stabilito per la prima volta l’ultimo giorno di marzo che ChatGPT non dovrebbe utilizzare i dati personali degli utenti italiani fino alla fine del processo. Inoltre, alle aziende sono stati immediatamente concessi 20 giorni per attuare misure che soddisfacessero le critiche delle autorità italiane.

Ma alla fine, all’inizio di aprile, i funzionari hanno deciso di diventare più severi e vietare completamente i chatbot. Hanno ordinato a OpenAI di garantire immediatamente che i suoi servizi non saranno disponibili sul territorio italiano fino a quando tutti i reclami delle autorità non saranno risolti.

Sebbene il termine che OpenAI ha ricevuto dall’Italia non sia ancora scaduto, le autorità hanno pubblicato le condizioni che la startup americana deve soddisfare per poter operare nuovamente nel Paese.

Basato su Sito politico i regolatori richiedono a OpenAI di fornire informazioni trasparenti agli utenti su come i loro dati personali vengono utilizzati per addestrare algoritmi in ChatGPT. Le startup devono inoltre concedere agli utenti il ​​diritto di richiedere la modifica o la cancellazione dei propri dati personali. Gli operatori del servizio devono inoltre garantire che i minori non utilizzino il servizio senza il consenso dei genitori.

Un fenomeno chiamato ChatGPT

L’intelligenza artificiale è stata al centro dell’attenzione con lo sviluppo di ChatGPT. Questo sistema di chat può generare vari testi tra cui articoli, saggi, barzellette e poesie sulla base di una semplice query. ChatGPT impara a rispondere all’input dell’utente e, come gli esseri umani, impara da grandi quantità di dati.

Nel marzo di quest’anno è stato introdotto il modello di intelligenza artificiale GPT-4 più avanzato. Dovrebbe essere in grado di fornire risposte più sicure e utili e aprire la strada alla diffusione di tecnologie simili all’uomo.

ChatGPT è dietro OpenAI, una start-up finanziata da Microsoft.

Europol mette in guardia contro gli hacker

Inoltre, OpenAI sta lottando su due fronti. Oltre all’Ufficio Italiano per la Protezione dei Dati Personali, questo servizio si occupa anche di loro Organizzazione europea di polizia Europol. Ha avvertito che i criminali potrebbero utilizzare ChatGPT e altri chatbot per frodi e altre attività criminali. Lo aveva già sottolineato la società di sicurezza informatica Check Point, secondo la quale gli hacker stavano già sfruttando ChatGPT.

“L’intelligenza artificiale sarà sicuramente uno degli argomenti principali nel 2024. Le tecnologie AI aiutano a proteggere dalle minacce informatiche, ma allo stesso tempo vediamo un grande interesse da parte dei criminali informatici per ChatGPT, ad esempio”, ha affermato Petr Kadrmas, esperto di sicurezza di Check Point.

Secondo lui, “gli hacker stanno cercando di utilizzare questa tecnologia disponibile per scrivere codice dannoso e, sebbene gli sforzi attuali siano piuttosto modesti, è solo una questione di tempo prima che gruppi di hacker professionisti inizino a utilizzare strumenti di intelligenza artificiale in modi molto più sofisticati”.

Ad esempio, alla fine dello scorso anno, su uno dei popolari forum di hacking è apparso un thread chiamato “ChatGPT – eccellenza del malware”. L’autore del post condivide la sua esperienza con altri hacker di computer nella creazione di comunità di malware attraverso popolari chatbot.

Gli hacker hanno trovato nuovi aiutanti. Intelligenza artificiale

Sicurezza

Lance Norris

"Avid organizer. Hipster-friendly bacon evangelist. Friend of animals everywhere. Entrepreneur."