Questo sito contribuisce all’audience di Quotidiano Nazionale

ChatGpt, l'allarme di Elon Musk e altri 1.000 ricercatori: l'IA "pericolosa" come la corsa agli armamenti

Elon Musk e altri 1.000 fra ricercatori e manager, tra i quali il co-fondatore di Apple Steve Wozniak, chiedono una «pausa» di sei mesi nello sviluppo dei sistemi di intelligenza artificiale avanzati come ChatGPT per fermare quella che definiscono una "pericolosa" corsa agli armamenti. In una lettera aperta pubblicata da Future of Life Institute, e riportata dal Financial Times, gli oltre 1.100 firmatari spiegano come «negli ultimi mesi c'è stata una corsa fuori controllo dei laboratori per l’intelligenza artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare».

«Chiediamo a tutti i laboratori di intelligenza artificiale di fermarsi immediatamente per almeno sei mesi nell’addestrare i sistemai di IA più potenti come GPT-4. La pausa dovrebbe essere pubblica, verificabile e includere tutti. Se non sarà attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria», si legge nella missiva.

Il testo della lettera

"I sistemi di intelligenza artificiale (IA) con capacità paragonabili a quelle umane - si legge nella lettera aperta pubblicata da Future of Life Institute - possono comportare rischi significativi per la società e l'umanità, come dimostrato da numerose ricerche e riconosciuto dai principali laboratori di IA. I principi di Asilomar sottolineano che un'IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e che dovrebbe essere pianificata e gestita con le risorse e la cura adeguate. Tuttavia, questa pianificazione e gestione non sta avvenendo, nonostante l'attuale corsa incontrollata verso lo sviluppo e l'implementazione di IA sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile".

"E' giusto lasciare che le macchine inondino i nostri canali informativi con propaganda e falsità"

"I sistemi di IA attuali stanno diventando sempre più competitivi rispetto agli esseri umani in compiti generali, e dobbiamo chiederci se sia giusto lasciare che le macchine inondino i nostri canali informativi con propaganda e falsità, sostituiscano tutti i lavori (anche quelli gratificanti) con l'automazione, e sviluppino menti non umane che potrebbero eventualmente superare e sostituire noi stessi. Tali decisioni non dovrebbero essere delegate ai leader tecnologici non eletti. I sistemi di IA potenti dovrebbero essere sviluppati solo quando siamo sicuri che i loro effetti saranno positivi e i rischi gestibili. Questa sicurezza deve essere ben giustificata e aumentare con la portata degli effetti potenziali di un sistema. OpenAI ha recentemente affermato che 'potrebbe essere importante ottenere una revisione indipendente prima di iniziare a formare futuri sistemi e che gli sforzi più avanzati dovrebbero concordare nel limitare la crescita del calcolo utilizzato per creare nuovi modelli'. Siamo d'accordo. Quel momento è adesso".

"Sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di IA più potenti di GPT-4"

"Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di IA più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e coinvolgere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare insieme una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzata, che siano rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa verso modelli sempre più grandi e imprevedibili, con capacità emergenti difficili da controllare.

La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi di oggi più precisi, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali".

"Servono nuove autorità regolatorie dedicate all'IA"

"Parallelamente, gli sviluppatori di IA devono collaborare con i responsabili politici per accelerare notevolmente lo sviluppo di sistemi di governance dell'IA robusti. Questi dovrebbero includere, almeno: nuove autorità regolatorie dedicate all'IA; monitoraggio e tracciamento di sistemi di IA altamente capaci e grandi risorse di calcolo".

Caricamento commenti

Commenta la notizia