“Il governo degli Stati Uniti dovrebbe prendere in considerazione una combinazione di criteri di licenza o registrazione per lo sviluppo e l’implementazione di modelli di intelligenza artificiale… incentivando al contempo il pieno rispetto di questi requisiti”, ha affermato secondo Reuters Altmann.
Allo stesso tempo, ha sottolineato che la regolamentazione “non dovrebbe soffocare gli sforzi di innovazione”. “I requisiti di sicurezza per le aziende che operano nel campo dell’intelligenza artificiale devono essere abbastanza flessibili da adattarsi ai nuovi progressi tecnologici”, delinea la sua visione il capo di OpenAI.
L’intelligenza artificiale ha la precedenza sugli umani. IBM taglierà migliaia di posti di lavoro
Software
L’udienza si è tenuta al Congresso degli Stati Uniti proprio a causa del rapido sviluppo dell’IA negli ultimi mesi. Le preoccupazioni sull’intelligenza artificiale sono state causate principalmente dall’introduzione di una versione più sofisticata del chatbot ChatGPT.
I governi e le agenzie di regolamentazione di tutto il mondo si sono conformati dal Washington Post difficoltà a tenere il passo con i rapidi sviluppi dell’intelligenza artificiale, sollevando preoccupazioni sui potenziali rischi di questa nuova tecnologia.
Disinformazione ed elezioni
Anche gli stessi creatori di intelligenza artificiale ne sono consapevoli, come ha dimostrato Altman in aula al Congresso. Suggerisce di sostenere la creazione di un’organizzazione internazionale che stabilisca gli standard in questo settore. Ha paragonato questo passaggio necessario alla regolamentazione delle armi nucleari. Ha sottolineato ai senatori che “l’intervento del governo sarà fondamentale per limitare i rischi derivanti dalle maggiori capacità dei sistemi di intelligenza artificiale”.
Una delle maggiori preoccupazioni menzionate da Altman era la capacità dei nuovi modelli di manipolare le persone e fornire “disinformazione interattiva”. Secondo lui, può essere utilizzato, ad esempio, per convincere gli elettori durante le campagne elettorali. “Questo mi preoccupa molto”, ha concluso il capo di OpenAI.
Le autorità statunitensi hanno promesso di reprimere i “servizi canaglia” basati sull’intelligenza artificiale, ma al momento non ci sono piani normativi. Allo stesso tempo, l’Unione Europea sta lavorando a una legge sull’intelligenza artificiale, grazie alla quale le singole applicazioni saranno suddivise in diverse categorie e che fisserà limiti diversi a seconda del rischio.
Un fenomeno chiamato ChatGPT
L’intelligenza artificiale è al centro dell’attenzione con lo sviluppo di ChatGPT. Questo sistema di chat può generare vari testi tra cui articoli, saggi, barzellette e poesie sulla base di una semplice query. ChatGPT impara a rispondere all’input dell’utente e, come gli esseri umani, impara da grandi quantità di dati.
Nel marzo di quest’anno è stato introdotto il modello di intelligenza artificiale GPT-4 più avanzato. Dovrebbe essere in grado di fornire risposte più sicure e utili e aprire la strada alla diffusione di tecnologie simili all’uomo.
L’app Web è offerta gratuitamente da OpenAI, ma si applica solo alla vecchia versione del chatbot GPT-3.5. L’intelligenza artificiale GPT-4 più avanzata, in grado di fornire risposte più accurate e utili, può essere utilizzata solo dai possessori di abbonamenti. Ciò costerà alle potenziali parti interessate $ 20 al mese, ovvero circa 440 CZK in conversioni.
ChatGPT è dietro OpenAI, una start-up finanziata da Microsoft.
I criminali informatici fanno soldi su ChatGPT, commerciando con account premium
Sicurezza
“Avid organizer. Hipster-friendly bacon evangelist. Friend of animals everywhere. Entrepreneur.”