Gli italiani hanno un’intelligenza artificiale limitata. ChatGPT rischia una multa di 470 milioni

“Limiteremo ChatGPT per rispettare le Regole sulla privacy”, leggi il comunicato delle autorità italiane per la protezione dei dati personali. Tuttavia, hanno aggiunto che l’operatore ha ora la possibilità di presentare ricorso contro la decisione, quindi il processo non è terminato.

Il Garante per la protezione dei dati personali italiano afferma che “OpenAI raccoglie dati personali senza alcuna base giuridica”. L’operatore ChatGPT giustifica la raccolta e l’archiviazione dei dati personali con il fatto che è necessario addestrare gli algoritmi su cui opera la piattaforma.

Inoltre, gli utenti non sarebbero nemmeno informati che i loro dati vengono archiviati.

Il belga si è ucciso. L’intelligenza artificiale lo guida

Software

Dati utente trapelati

Le autorità italiane sottolineano che le informazioni sui loro utenti sono trapelate da ChatGPT alla fine di marzo. Quindi la questione della raccolta dei dati è più che una questione scottante.

Questa non è l’unica cosa che infastidisce i funzionari in Italia. Nonostante le affermazioni dei rappresentanti dell’azienda OpenAI secondo cui il chatbot può essere utilizzato da persone di età superiore ai 13 anni, il sito Web del servizio non controlla in alcun modo l’età degli utenti, il che è contrario alla legislazione vigente.

Le autorità hanno ordinato al bot ChatGPT di non utilizzare i dati personali degli utenti italiani fino al termine del processo. OpenAI ha ora 20 giorni per attuare le misure di cui le autorità italiane si sono lamentate. In caso contrario, l’azienda può incorrere in multe salate. Inoltre, le multe possono essere emesse ripetutamente, il che può liquidare gli operatori.

Ma l’ufficio stesso dimostra che far rispettare i requisiti non sarà affatto facile. OpenAI non ha un ufficio in nessuno dei paesi dell’Unione Europea, dal 2015 opera a San Francisco, USA.

L’intelligenza artificiale potrebbe sostituire 300 milioni di lavoratori, prevede Goldman Sachs

Internet e computer

Strumento di hacking?

L’organizzazione di polizia europea Europol ha avvertito questa settimana che i criminali potrebbero utilizzare ChatGPT e altri chatbot per frodi e altre attività criminali. Lo aveva già sottolineato la società di sicurezza informatica Check Point, secondo la quale gli hacker stavano già sfruttando ChatGPT.

“L’intelligenza artificiale sarà sicuramente uno degli argomenti principali nel 2024. Le tecnologie AI aiutano a proteggere dalle minacce informatiche, ma allo stesso tempo vediamo un grande interesse da parte dei criminali informatici per ChatGPT, ad esempio”, ha affermato Petr Kadrmas, esperto di sicurezza di Check Point.

Secondo lui, “gli hacker stanno cercando di utilizzare questa tecnologia disponibile per scrivere codice dannoso e, sebbene gli sforzi attuali siano piuttosto modesti, è solo una questione di tempo prima che gruppi di hacker professionisti inizino a utilizzare strumenti di intelligenza artificiale in modi molto più sofisticati”.

Ad esempio, può creare uno strumento antifurto di base che cerca nel sistema 12 tipi di file comuni, come documenti MS Office, PDF e immagini.

Petr Kadrmas, esperto di sicurezza di Check Point

Ad esempio, alla fine dello scorso anno, su uno dei popolari forum di hacking è apparso un thread chiamato “ChatGPT – i vantaggi del malware”. L’autore del post condivide la sua esperienza con altri hacker di computer nella creazione di comunità di malware attraverso popolari chatbot.

“Ad esempio, potrebbe creare uno strumento antifurto di base che cerca nel sistema 12 tipi di file comuni, come documenti MS Office, PDF e immagini. Se vengono trovati file interessanti, il malware li copia in una directory temporanea, li comprime e li invia sul Web. Tuttavia, i file vengono inviati in forma non crittografata, quindi possono raggiungere anche terze parti. Altri script possono essere facilmente modificati per scaricare ed eseguire qualsiasi programma, incluso il malware comune”, ha affermato Kadrmas.

Questo è preoccupante, secondo gli esperti di sicurezza. In effetti, l’intelligenza artificiale può chiaramente essere utilizzata da individui tecnicamente meno esperti per creare codice dannoso altrettanto sofisticato di quello a cui sono abituati gli hacker esperti nei loro attacchi.

Un fenomeno chiamato ChatGPT

L’intelligenza artificiale è stata al centro dell’attenzione con lo sviluppo di ChatGPT. Questo sistema di chat può generare vari testi tra cui articoli, saggi, barzellette e poesie sulla base di una semplice query. ChatGPT impara a rispondere all’input dell’utente e, come gli esseri umani, impara da grandi quantità di dati.

Nel marzo di quest’anno è stato introdotto il modello di intelligenza artificiale GPT-4 più avanzato. Dovrebbe essere in grado di fornire risposte più sicure e utili e aprire la strada alla diffusione di tecnologie simili all’uomo.

ChatGPT è dietro OpenAI, una start-up finanziata da Microsoft.

Il capo di OpenAI è preoccupato per l’impatto dell’intelligenza artificiale su posti di lavoro, elezioni e disinformazione

Internet e computer

Lance Norris

"Avid organizer. Hipster-friendly bacon evangelist. Friend of animals everywhere. Entrepreneur."