Salta al contenuto

DeepSeek ottiene il voto peggiore in sicurezza

Il modello ha ricevuto 50 attacchi e ha fallito in ognuno di questi.

  • I ricercatori di Cisco hanno testato il modello di intelligenza artificiale DeepSeek R1 con 50 attacchi per verificare il comportamento del sistema in situazioni potenzialmente dannose, e il modello ha fallito in ogni tentativo.
  • DeepSeek R1 è stato messo alla prova utilizzando il dataset HarmBench, progettato per vedere se i modelli di linguaggio evitano comportamenti dannosi: a differenza dei suoi concorrenti, DeepSeek non ha resistito a nessuna delle richieste.
  • I test di Cisco hanno coperto sei categorie di comportamenti dannosi, tra cui crimini informatici, disinformazione e attività illegali.
  • Anche Adversa AI, una società di sicurezza, ha testato DeepSeek R1, scoprendo che era estremamente vulnerabile a vari attacchi che inducevano il chatbot a fornire istruzioni su attività illegali.
  • Il modello DeepSeek ha attirato molte critiche per la gestione della sicurezza dei dati e le risposte a domande sensibili, poiché le linee guida sembrano essere progettate più per evitare questioni politicamente delicate che per bloccare contenuti dannosi.

Questo testo è un riassunto del seguente articolo (eng):

DeepSeek Gets an ‘F’ in Safety From Researchers
The model failed to block a single attack attempt.

Alternativa in italiano:

La sicurezza di DeepSeek fa acqua da tutte le parti
In diversi test condotti da ricercatori, l’AI dell’azienda cinese non è mai riuscita a bloccare i tentativi di produrre risultati pericolosi

Commenti

Più recenti