Questo sito contribuisce all’audience di Quotidiano Nazionale

OpenAI Iancia CriticGpt, progettato per identificare errori nel codice generato dal chatbot

(FILES) A photo taken on October 4, 2023 in Manta, near Turin, shows a smartphone displaying the logo of the artificial intelligence OpenAI research laboratory. Hundreds of staff at ChatGPT's parent company OpenAI have signed a letter threatening to leave the tech firm unless "all current board members resign," according to US media reports on November 20, 2023. (Photo by MARCO BERTORELLO / AFP)

ChatGpt diventa anche controllore di se stesso. I ricercatori di OpenAI hanno infatti lanciato CriticGpt, un nuovo modello di intelligenza artificiale progettato per identificare errori nel codice generato dal chatbot. L’obiettivo è migliorare il processo di controllo dei revisori umani a rendere più accurati i risultati del modello linguistico.
Come spiegato dal documento intitolato 'Llm Critics Help Catch Llm Bugs', OpenAI ha creato CriticGpt per fungere da assistente ai formatori umani che esaminano il codice di programmazione generato da ChatGpt. CriticGpt si basa su Gpt-4,
analizza il codice e segnala potenziali errori. I ricercatori lo hanno addestrato su un set di dati inserendo dei bug intenzionalmente e insegnando così al sistema a riconoscere e segnalare vari errori di codifica. Hanno scoperto che le critiche di CriticGpt erano preferite rispetto alle critiche umane nel 63% dei casi. Questo processo ha consentito al modello di apprendere come identificare e criticare vari tipi di errori di codifica.
Nonostante i risultati, come tutti i modelli di intelligenza artificiale, CriticGpt presenta dei limiti, fa notare la testata specializzata Ars Technica. Il modello è stato infatti addestrato su risposte di ChatGpt relativamente brevi che potrebbero non bastare completamente alla valutazione di compiti più lunghi e complessi che i futuri sistemi di intelligenza artificiale dovranno affrontare.

Caricamento commenti

Commenta la notizia