L’intelligenza artificiale rappresenta un rischio per i diritti umani, i cechi stanno prendendo precauzioni

I ricercatori volevano identificare i fattori di rischio delle violazioni dei diritti umani in tutte le fasi del ciclo di vita dell’IA. Oltre alle valutazioni, il risultato di questo progetto è una serie di raccomandazioni su come sviluppare, utilizzare e regolamentare le tecnologie di intelligenza artificiale in modo che non minaccino i diritti umani e, al contrario, aiutino il loro sviluppo e protezione. Allo stesso tempo, stanno anche esplorando la possibilità di ulteriori applicazioni di intelligenza artificiale in cui l’automazione può aiutare a proteggere i diritti umani.

“L’intelligenza artificiale può aiutare in modo significativo, ad esempio, nel monitoraggio della conformità e nella difesa dei diritti umani nell’area della responsabilità aziendale, rafforzando il diritto a un processo equo eliminando i ritardi del processo, la protezione della salute e molti altri”, afferma la coordinatrice del progetto Martina Šmuclerová di Ambis.

“Ad esempio, l’immissione di dati non rappresentativi e l’elaborazione sbilanciata degli stessi può introdurre il cosiddetto pregiudizio algoritmico o pregiudizio discriminatorio nelle tecnologie di intelligenza artificiale. Ciò può manifestarsi ad esempio nei processi di selezione del lavoro, nella sorveglianza della polizia basata su meccanismi di riconoscimento facciale o nel punteggio di credito delle persone nel settore bancario”, ha spiegato.

I funzionari a Tokyo saranno sostituiti dall’intelligenza artificiale

Un modello AI inspiegabile e non trasparente

Secondo i ricercatori, anche i modelli di intelligenza artificiale inspiegabili e non trasparenti potrebbero essere un problema. Se una persona che denuncia violazioni dei diritti umani non ha accesso alle informazioni e alle prove su cui si basano le decisioni di AI, il diritto a un processo equo può essere messo a repentaglio, hanno affermato.

I ricercatori hanno identificato un totale di 38 potenziali rischi per i diritti umani in tutte le fasi dello sviluppo e del funzionamento dei sistemi di intelligenza artificiale e per ciascuno di essi hanno offerto opzioni per la prevenzione e l’eliminazione. Allo stesso tempo, per le 16 principali aree selezionate di violazione dei diritti umani nella società, propongono l’applicazione di vari tipi di tecnologie di intelligenza artificiale con funzioni adeguate.

“Questa serie di raccomandazioni aiuterà l’attuazione pratica di norme giuridicamente vincolanti, rendendo il nostro progetto un complemento alle iniziative dell’UE in corso. Come regola generale, la legge sull’IA non affronta implementazioni tecniche specifiche su come prevenire i rischi per i diritti umani in applicazioni specifiche della tecnologia AI. Un ruolo chiave sarà svolto dai software legali, come codici di condotta, varie forme di certificazione e simili”, ha affermato Jakub Míšek dell’Istituto di diritto e tecnologia MUNI.

La regolamentazione legale dei sistemi basati sull’intelligenza artificiale è ora in preparazione a livello dell’Unione europea sotto forma di una legge sull’intelligenza artificiale, ha aggiunto il comunicato stampa.

Paura per il futuro del mondo

A marzo, le celebrità IT hanno espresso le loro preoccupazioni per la velocità con cui si sta sviluppando l’intelligenza artificiale. Centinaia di accademici, esperti e imprenditori hanno aderito all’appello chiedendo almeno sei mesi di interruzione dello sviluppo di nuovi modelli di intelligenza artificiale a causa dei “gravi rischi per la società e l’umanità”. L’imprenditore americano Elon Musk e il co-fondatore di Apple Steve Wozniak, tra gli altri.

La sfida è direttamente correlata a GPT-4. Questa versione è considerata dai suoi firmatari così avanzata che la società potrebbe non sviluppare la prossima generazione fino a quando non saranno approvate determinate regole nel campo dell’intelligenza artificiale. Tuttavia, questo non ha fermato il suo sviluppo.

Ma non tutti sono contrari. Il co-fondatore di Microsoft Bill Gates ha recentemente pubblicato un articolo sul suo blog in cui afferma che l’era dell’intelligenza artificiale è arrivata. Secondo lui, l’intelligenza artificiale verrà utilizzata per risolvere i maggiori problemi del mondo, tra cui la disuguaglianza, le malattie e il cambiamento climatico globale.

Al contrario, Elon Musk è ora uno dei critici più espliciti di OpenAI e delle sue creazioni. “L’intelligenza artificiale è più pericolosa dei progetti di aeromobili mal gestiti, della manutenzione delle fabbriche o della scarsa produzione di automobili”, ha detto Musk in un’intervista per FoxNews ha affermato che l’intelligenza artificiale ha “il potenziale per la distruzione della civiltà”.

Un fenomeno chiamato ChatGPT

L’intelligenza artificiale è stata al centro dell’attenzione con lo sviluppo di ChatGPT. Questo sistema di chat può generare vari testi tra cui articoli, saggi, barzellette e poesie sulla base di una semplice query. ChatGPT impara a rispondere all’input dell’utente e, come gli esseri umani, impara da grandi quantità di dati.

Nel marzo di quest’anno è stato introdotto il modello di intelligenza artificiale GPT-4 più avanzato. Dovrebbe essere in grado di fornire risposte più sicure e utili e aprire la strada alla diffusione di tecnologie simili all’uomo.

L’app Web è offerta gratuitamente da OpenAI, ma si applica solo alla vecchia versione del chatbot GPT-3.5. L’intelligenza artificiale GPT-4 più avanzata, in grado di fornire risposte più accurate e utili, può essere utilizzata solo dai proprietari di abbonamenti. Ciò costerà alle potenziali parti interessate $ 20 al mese, ovvero circa CZK 440 in conversioni.

ChatGPT è dietro OpenAI, una start-up finanziata da Microsoft.

Chiedi agli avatar. Interpreterà il ruolo di receptionist o guida della galleria

Lance Norris

"Avid organizer. Hipster-friendly bacon evangelist. Friend of animals everywhere. Entrepreneur."