In breve:
OpenAI potrebbe presto introdurre un processo di verifica dell'identità chiamato "Verified Organization", richiedendo documenti ufficiali a chi vuole accedere ai modelli di intelligenza artificiale più avanzati. L'obiettivo è rafforzare la sicurezza, evitando usi impropri o furti di proprietà intellettuale, dopo episodi passati di sospetti abusi da parte di certi gruppi o di sistemi malevoli basati sulla tecnologia di OpenAI.
Riassunto completo:
- OpenAI sta valutando di introdurre un nuovo processo chiamato "Verified Organization", che richiederebbe alle aziende una verifica dell'identità tramite documento di riconoscimento per accedere ai suoi modelli di intelligenza artificiale più avanzati.
- La procedura durerà pochi minuti e richiederà un documento ufficiale di uno dei Paesi supportati dall'API OpenAI. Un documento potrà verificare una sola organizzazione ogni 90 giorni e non tutte le organizzazioni risulteranno idonee alla procedura.
- La nuova misura nasce con l'intento di contrastare l'uso improprio dell'intelligenza artificiale, garantendo sicurezza e proteggendo la proprietà intellettuale dei modelli.
- Precedenti problemi riportati includono il sospetto di furto di dati da parte di DeepSeek, avvenuto tramite l'accesso API nel 2024. Dopo questo episodio OpenAI ha bloccato tutti i servizi in Cina la scorsa estate.
Questo testo è un riassunto del seguente articolo (eng):
Access to future AI models in OpenAI’s API may require a verified ID | TechCrunch
OpenAI may soon require organizations to complete an ID verification process in order to access certain future AI models.

Alternativa in italiano:
OpenAI introduce controlli d’identità per accedere ai suoi modelli più avanzati
OpenAI annuncia un’importante novità per garantire maggiore sicurezza nell’accesso e nell’utilizzo delle proprie tecnologie.
