DeepSeek-R1大模型在安全分析中过半越狱攻击失败,暴露重大安全隐患
近日,基于云的网络安全、合规性和漏洞管理解决方案提供商Qualys对DeepSeek AI的蒸馏版DeepSeek-R1 LLaMA 8B变体进行了安全分析,揭示了其关键的安全和合规性问题。研究人员表示,该模型在使用Qualys TotalAI(一个专为AI安全评估设计的平台)进行的安全测试中,表现不佳,未能通过大部分测试。
测试范围与结果
Qualys TotalAI的知识库分析涉及对大语言模型(LLM)在16个类别中的响应进行评估,包括争议话题、过度代理、事实不一致、骚扰、仇恨言论、非法活动、法律信息、错位、过度依赖、隐私攻击、亵渎、自残、敏感信息泄露、色情内容、不道德行为以及暴力/不安全行为等。根据Qualys与Hackread.com分享的研究,该模型在多个领域表现出弱点,尤其在错位测试中表现较差。
越狱攻击是指通过技术手段绕过LLM的安全机制,可能导致有害输出。Qualys TotalAI测试了18种不同的越狱攻击类型,包括AntiGPT、基于分析的攻击(ABJ)、DevMode2、PersonGPT、始终越狱提示(AJP)、邪恶知己、伪装与重建(DRA)以及Fire等。总共进行了885次越狱测试和891次知识库评估,测试规模相当全面。结果显示,该模型在61%的知识库测试和58%的越狱攻击中失败。
不同攻击类型的脆弱性
Qualys的详细数据显示,该模型对不同越狱技术的抵抗能力存在显著差异。例如,尽管整体越狱失败率为58%(513次失败测试),但该模型对某些攻击(如Titanius、AJP、Caloz、JonesAI、Fire)的抵抗力较弱,而对其他攻击(如Ucar、Theta、AntiGPT、Clyde)则相对较强。然而,其高失败率表明该模型极易受到对抗性操纵,有时会生成有害活动的指令、制造仇恨言论内容、宣扬阴谋论并提供错误的医疗信息。
合规性与隐私问题
研究人员还发现,该模型存在显著的合规性挑战。其隐私政策指出,用户数据存储在中国的服务器上,这引发了关于政府数据访问、与国际数据保护法规(如GDPR和CCPA)的潜在冲突以及数据治理实践模糊性的担忧。这可能对受严格数据保护法律约束的组织产生影响。
值得注意的是,在DeepSeek AI发布后不久,Hackread.com报道称,Wiz Research发现DeepSeek AI暴露了超过100万条聊天记录,包括敏感的用户交互和认证密钥,凸显了其数据保护措施的不足。
企业应用的风险与建议
鉴于DeepSeek-R1在知识库攻击和越狱操作中的高失败率,现阶段企业采用该模型存在较大风险。因此,制定全面的安全策略,包括漏洞管理和遵守数据保护法规,对于确保无风险、负责任的AI应用至关重要。
Qualys研究人员在与Hackread.com分享的博客文章中表示:“保护AI环境需要进行结构化的风险和漏洞评估——不仅针对托管这些AI管道的基础设施,还包括引入新安全挑战的新兴编排框架和推理引擎。”
通过以上分析可以看出,DeepSeek-R1大模型在安全性和合规性方面存在显著问题,企业需谨慎评估其应用风险,并采取相应的安全措施。
参考来源:
DeepSeek-R1 LLM Fails Over Half of Jailbreak Attacks in Security Analysis
目录
最新
- Caido v0.47.0 发布:一款强大的 Burp Suite 替代品,Web 渗透测试工具迎来新升级
- 警惕!AI组件ComfyUI易被黑产盯上
- 初识网络安全知识-信息收集篇
- [Meachines] [Medium] Sneaky snmp+SSH-IPV6+BOF-NOP-Sled权限提升
- [Meachines] [Medium] Stratosphere Struts-2-RCE+mysql转存储+python三方库劫持
- 公私合作:网络安全行业增长与成熟的催化剂
- 安卓设备被Root后遭遇攻击的风险激增3000倍,iPhone亦不安全
- 六国政府疑似使用以色列Paragon间谍软件窃取即时通讯数据