Salta al contenuto

OpenAI ha un nuovo team di sicurezza–è guidato da Sam Altman

Crediti immagine: World Economic Forum / Flickr

Questa pagina contiene un riassunto del seguente articolo: theverge.com (eng)

31%
del testo originale
4
minuti risparmiati

Riassunto

OpenAI sta formando un nuovo team per la sicurezza, guidato dal CEO Sam Altman, insieme ai membri del consiglio Adam D'Angelo e Nicole Seligman. Il team si occuperà di prendere decisioni importanti sulla sicurezza per i progetti e le operazioni di OpenAI, in risposta alle preoccupazioni di alcuni ricercatori IA che hanno lasciato l'azienda questo mese.

La prima attività del team sarà valutare e sviluppare ulteriormente i processi e le salvaguardie di OpenAI, per poi presentare le conclusioni al consiglio, sul quale siedono tutti e tre i leader del team per la sicurezza.

La formazione del team segue le dimissioni del co-fondatore e scienziato capo di OpenAI, Ilya Sutskever, e di altri membri chiave del Superalignment team, che avevano espresso preoccupazioni sulla sicurezza trascurata da OpenAI.

Inoltre, OpenAI ha annunciato di testare un nuovo modello di intelligenza artificiale, ma non ha confermato se si tratti di GPT-5. La compagnia ha anche rimosso una nuova voce per ChatGPT, chiamata Sky, che suona in modo simile a Scarlett Johansson, e che ha suscitato preoccupazioni e dichiarazioni di Johansson che aveva rifiutato di prestare la sua voce per ChatGPT.

Alcuni membri del nuovo team per la sicurezza di OpenAI includono il responsabile della preparazione Aleksander Madry, la responsabile della sicurezza Lilian Weng, il responsabile della scienza dell'allineamento John Schulman, il responsabile della sicurezza Matt Knight e il capo scienziato Jakub Pachocki.

Contesto

Il testo che segue non è presente all'interno dell'articolo sopra citato.

Cosa è successo prima

Prima della formazione del nuovo team per la sicurezza di OpenAI, l'azienda ha affrontato crescenti preoccupazioni riguardo alla gestione della sicurezza e all'allineamento etico dei suoi progetti di intelligenza artificiale. Queste preoccupazioni sono culminate con le dimissioni del co-fondatore e scienziato capo Ilya Sutskever e altri membri chiave del Superalignment team, i quali hanno espresso il timore che le misure di sicurezza fossero state trascurate. (9to5Mac)​​ (MacRumors)​.

Chi sono i protagonisti

  1. Sam Altman: CEO di OpenAI, guida il nuovo team per la sicurezza. È responsabile della supervisione delle operazioni e delle strategie di crescita di OpenAI.
  2. Adam D'Angelo: Membro del consiglio di OpenAI, parte del team di sicurezza. È anche il CEO e co-fondatore di Quora.
  3. Nicole Seligman: Membro del consiglio di OpenAI, coinvolta nelle decisioni di sicurezza. È un'avvocata e dirigente con una lunga carriera in aziende di alto profilo.
  4. Ilya Sutskever: Co-fondatore e ex scienziato capo di OpenAI, recentemente dimessosi a causa di preoccupazioni sulla sicurezza dell'azienda.
  5. Aleksander Madry: Responsabile della preparazione, membro del nuovo team di sicurezza. Esperto in robustezza e affidabilità dei modelli di intelligenza artificiale.
  6. Lilian Weng: Responsabile della sicurezza, si occupa di sviluppare e implementare strategie di sicurezza per OpenAI.
  7. John Schulman: Responsabile della scienza dell'allineamento, focalizzato sull'assicurare che i modelli di AI seguano principi etici e di sicurezza.
  8. Matt Knight: Responsabile della sicurezza, si occupa delle misure di sicurezza operativa e infrastrutturale di OpenAI.
  9. Jakub Pachocki: Capo scienziato, coinvolto nella ricerca avanzata e nello sviluppo di modelli di intelligenza artificiale presso OpenAI​ (9to5Mac)​​ (MacRumors)​​ (Evening Standard)​.

La fonte

The Verge è una fonte affidabile per le notizie tecnologiche e ha una buona reputazione per l'accuratezza delle informazioni. Tuttavia, come molte testate giornalistiche, può mostrare una certa parzialità nei suoi reportage. Secondo Media Bias/Fact Check, The Verge ha un track record positivo per quanto riguarda il fact-checking e raramente è stata coinvolta in controversie riguardanti l'accuratezza delle sue notizie.

L'attendibilità della fonte è stata analizzata tramite Media Bias/Fact Check.

I testi presenti all'interno di questa pagina sono stati inizialmente generati tramite intelligenza artificiale e poi revisionati e corretti a mano.

Commenti

Più recenti