- I ricercatori di Cisco hanno testato il modello di intelligenza artificiale DeepSeek R1 con 50 attacchi per verificare il comportamento del sistema in situazioni potenzialmente dannose, e il modello ha fallito in ogni tentativo.
- DeepSeek R1 è stato messo alla prova utilizzando il dataset HarmBench, progettato per vedere se i modelli di linguaggio evitano comportamenti dannosi: a differenza dei suoi concorrenti, DeepSeek non ha resistito a nessuna delle richieste.
- I test di Cisco hanno coperto sei categorie di comportamenti dannosi, tra cui crimini informatici, disinformazione e attività illegali.
- Anche Adversa AI, una società di sicurezza, ha testato DeepSeek R1, scoprendo che era estremamente vulnerabile a vari attacchi che inducevano il chatbot a fornire istruzioni su attività illegali.
- Il modello DeepSeek ha attirato molte critiche per la gestione della sicurezza dei dati e le risposte a domande sensibili, poiché le linee guida sembrano essere progettate più per evitare questioni politicamente delicate che per bloccare contenuti dannosi.
Questo testo è un riassunto del seguente articolo (eng):
DeepSeek Gets an ‘F’ in Safety From Researchers
The model failed to block a single attack attempt.
![](https://www.morningtech.it/content/images/thumbnail/DeepSeek-iPhone-App.jpg)
Alternativa in italiano:
La sicurezza di DeepSeek fa acqua da tutte le parti
In diversi test condotti da ricercatori, l’AI dell’azienda cinese non è mai riuscita a bloccare i tentativi di produrre risultati pericolosi
![](https://www.morningtech.it/content/images/thumbnail/deepseek-sec-2196098907.jpg)