Privacy dei dati su ChatGPT e altre IA

Negli ultimi giorni abbiamo visto molte notizie sulla chiusura dello strumento di intelligenza artificiale Chat GPT nel nostro paese vicino, l’Italia, e problemi con le sue politiche di elaborazione dei dati in tutto il mondo.

In Spagna, infatti, l’Agenzia spagnola per la protezione dei dati ha avviato un’indagine corrispondente su una possibile violazione della protezione dei dati del dispositivo nel nostro paese.

Ma, prima, cos’è la chat GPT?

Definita dallo strumento stesso, GPT Chat è un ampio modello di linguaggio integrato addestrato da OpenAI, basato sull’architettura GPT (Generative Pre-trained Transformer) 3.5. in grado di produrre un testo coerente e naturale in risposta all’input di testo fornito dall’utente.

Ora, le aziende dovrebbero prestare attenzione ai dati che i loro dipendenti inseriscono in ChatGPT o in altre piattaforme simili?

Poiché sempre più lavoratori godono dei vantaggi di ChatGPT, alcuni dirigenti aziendali sono sempre più preoccupati per i dipendenti che inseriscono informazioni sensibili nello strumento. Ciò fa sì che molte aziende ne limitino o vietino l’utilizzo ai propri dipendenti.

Uno dei tanti motivi per cui l’azienda è preoccupata è che potrebbe compromettere il controllo delle informazioni sui clienti e l’azienda stessa, tanto che nelle stesse FAQ, ChatGPT afferma esplicitamente: “per favore, non condividere alcuna informazione sensibile nelle conversazioni”.

La resistenza che ha generato in Italia e in molte aziende nel mondo ha acceso il dibattito sul fatto che gli strumenti di intelligenza artificiale per la generazione del linguaggio siano pronti per un uso diffuso. Inoltre, le aziende devono considerare attentamente fino a che punto e quanto velocemente possono adottare nuove tecnologie basate sull’intelligenza artificiale.

Gli stessi sviluppatori di ChatGPT affermano inoltre che, come parte del loro impegno per un’intelligenza artificiale sicura e responsabile, rivedono le conversazioni per migliorare i loro sistemi e garantire che i contenuti soddisfino le politiche e i requisiti di sicurezza.

La politica sulla privacy di ChatGPT afferma che le informazioni personali raccolte vengono utilizzate per condurre ricerche e sviluppare nuovi programmi e servizi, tra le altre cose.

Le aziende di oggi tendono a prestare maggiore attenzione alle fughe di dati e un modo comune è attraverso i dipendenti stessi che consapevolmente o inconsapevolmente condividono o pubblicano dati aziendali su siti Web, perché potresti avere informazioni di identificazione personale nelle conversazioni ChatGPT.

Quindi, questo significa che dobbiamo seguire le orme dell’Italia e di diverse aziende nel vietare l’uso di questi dispositivi? Non so… cosa significa, tuttavia, che i manager dovrebbero ricordare ed educare i propri dipendenti sulle politiche aziendali sulla privacy dei dati e creare un piano o un manuale su come utilizzare i tipi di strumenti di intelligenza artificiale già esistenti.

William caro

MONNEX avvocati

gcaro@monlexabogados.es

Daniel Jensen

"Pop culture geek. Passionate student. Communicator. Thinker. Professional web evangelist."