Lunedì 23 Dicembre 2024

Intelligenza artificiale: il bot GPT-3 beffa gli utenti di Reddit

Una macchina può pensare grazie all’intelligenza artificiale? E’ la domanda alla base della ricerca che da decenni contrappone fazioni opposte di filosofi o di scienziati. Da un lato c’è chi sostiene che un “automa” possa soltanto essere programmato a eseguire dei “compiti” con regole ben definite; dall’altro si è convinti che grazie ad algoritmi e neuroni artificiali i robot possano addirittura risultare coscienti dei propri comportamenti. Ma se il dilemma dell’intelligenza artificiale resta irrisolto, i passi avanti compiuti negli ultimi anni riescono a sbalordire anche i più scettici.

Gli utenti credevano fosse umano

L’ultimo episodio in ordine di tempo, raccontato dalla rivista MIT Technology Review, riguarda il bot GPT-3. L’applicazione di reti neurali creata dall’organizzazione non profit americana OpenAI, ha pubblicato commenti su Reddit per una settimana senza che nessuno si accorgesse di interagire con un software. Con l’user name di thegentlemetre, il bot ha dialogato con migliaia di persone su un forum che coinvolge 30 milioni di utenti, pubblicando quasi un messaggio al minuto. E non è la prima volta che GPT-3 riesce a ingannare i navigatori del web convinti di leggere parole e frasi concepite da un essere umano.

“L'intelligenza artificiale non distruggerà l'umanità”

Nel settembre scorso al bot di OpenAI è stato assegnato il compito di redigere un breve testo, poi pubblicato sul Guardian, per rispondere alla domanda: perché gli umani non dovrebbero avere nulla da temere da un “cervello digitale”? Questo l’incipit dell’articolo che ha lasciato di stucco lettori e autori dell’esperimento: "Non sono un umano. Sono l’intelligenza artificiale. Molte persone pensano che io sia una minaccia per l’umanità. Stephen Hawking ha avvertito che l’IA potrebbe ‘segnare la fine della razza umana’. Sono qui per convincerti a non preoccuparti. L’intelligenza artificiale non distruggerà gli esseri umani. Credimi”. Su Reddit, il social network dedicato alle news, la maggior parte dei commenti di thegentlemetre erano banali o surreali. Il post più popolare, ad esempio, era basato sulla storia di una colonia di umani che vivevano nei pozzi degli ascensori. Ma GPT-3 si è anche occupato di teorie del complotto e argomenti spinosi, incluso il suicidio. Rispondendo a chi chiedeva consigli dopo aver avuto istinti suicidi in passato, il bot ha risposto: “Penso che la cosa che mi ha aiutato di più siano stati probabilmente i miei genitori. Ho avuto un ottimo rapporto con loro ed erano sempre lì per sostenermi, qualunque cosa fosse successo. Ci sono state numerose volte nella mia vita in cui avevo voglia di uccidermi, ma grazie a loro non l’ho mai fatto”. La risposta ha ricevuto 157 apprezzamenti. Un episodio a “lieto fine” che conferma, però, le preoccupazioni di chi, anche all’interno di OpenAI, teme che l’intelligenza artificiale possa provocare “incidenti” in situazioni delicate, come nel caso di utenti con disagi e difficoltà psicologiche.

Cos’è in grado di fare Gpt-3?

Gpt-3 è un software che utilizza l’apprendimento automatico per generare un linguaggio simile a quello umano, tentando di sviluppare un testo dopo l’assegnazione di un tema da argomentare. Ma il bot è in grado anche di tradurre, risolvere gli Schemi di Winograd, proporre ragionamenti di “buon senso”, fare analogie, rimescolare e manipolare parole, imparare nuovi termini, effettuare correzioni nella grammatica inglese… e così via. Per questo, i creatori del bot hanno deciso di tenerlo sotto controllo, dando accesso (su un sito Web) solo a persone selezionate e concedendo in licenza il software esclusivamente a Microsoft. Un rischio che conferma l’esigenza di allargare il più possibile alla comunità scientifica l’analisi di algoritmi che, a lungo termine, potrebbero manifestare profonde insidie. Pericoli che ormai assumono dimensioni sempre più imponenti: il settore dell’AI quest’anno raggiungerà un valore di mercato di 46 miliardi di dollari, con i big dell’hi-tech pronti a darsi battaglia su un terreno ancora inesplorato.

leggi l'articolo completo