Salta al contenuto

Il nuovo modello "CriticGPT" di OpenAI è addestrato per criticare i risultati di GPT-4

Photo by Emiliano Vittoriosi / Unsplash

Questa pagina contiene un riassunto del seguente articolo:

OpenAI’s new “CriticGPT” model is trained to criticize GPT-4 outputs
Research model catches bugs in AI-generated code, improving human oversight of AI.
64%
del testo originale
7
minuti risparmiati

Riassunto

I ricercatori di OpenAI hanno presentato CriticGPT, un nuovo modello AI progettato per identificare errori nel codice generato da ChatGPT.

Questo modello mira a migliorare l'allineamento degli AI systems tramite l'apprendimento proveniente dal feedback umano. CriticGPT analizza il codice e segnala potenziali errori, aiutando i revisori umani a rilevare problemi con maggiore facilità.

Addestrato su un dataset con bug inseriti intenzionalmente, CriticGPT è risultato più efficiente dei revisori umani nel 63% dei casi. Ha dimostrato di generare critiche più accurate, riducendo i falsi positivi.

Inoltre, i ricercatori hanno creato una tecnica chiamata "Force Sampling Beam Search" che permette di regolare il grado di precisione del modello.

CriticGPT ha identificato errori nel 24% dei casi in cui il codice era stato valutato come perfetto dagli annotatori umani.

OpenAI intende integrare CriticGPT nei suoi processi di labeling, pur riconoscendo che le limitazioni del modello richiedono ulteriori miglioramenti.

Attendibilità fonte

Ars Technica è generalmente considerata una fonte affidabile per notizie tecnologiche. Secondo Media Bias/Fact Check, Ars Technica ha una reputazione di alta affidabilità e imparzialità, con una storia di pochi errori di fact-checking.

L'attendibilità della fonte è stata analizzata tramite Media Bias/Fact Check.

I testi presenti all'interno di questa pagina sono stati inizialmente generati tramite intelligenza artificiale e poi revisionati e corretti a mano.

Commenti

Più recenti