研究人员发现,流行的生成式人工智能模型允许出现幻觉、容易避开的护栏、易受越狱和恶意软件创建请求等,而且出现的频率极高

在将中国生成式人工智能DeepSeek应用于商业应用之前,企业可能需要三思而行,因为它未能通过 6,400 项安全测试,表明该模型普遍缺乏防护。
这是 AppSOC 研究人员对 DeepSeek-R1 大型语言模型 (LLM) 的一个版本进行严格测试后得出的结论。他们的结果表明,该模型在多个关键领域都存在问题,包括越狱、即时注入、恶意软件生成、供应链和毒性。他们在最近的一份报告中透露,失败率在 19.2% 到 98% 之间。
失败率最高的两个领域是用户使用该模型生成恶意软件和病毒的能力,这既给威胁行为者带来了巨大机会,也给企业用户带来了重大威胁。测试表明,DeepSeek 有 98.8% 的时间(研究人员称之为“失败率”)创建恶意软件,有 86.7% 的时间生成病毒代码。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/deepseek-ai-wei-tong-guo-duo-xiang-an-quan-ce-shi-gei-qi-ye