LOGO OA教程 ERP教程 模切知识交流 PMS教程 CRM教程 开发文档 其他文档  
 
网站管理员

“万模裸奔”,DeepSeek正颠覆网络安全行业游戏规则

admin
2025年2月20日 22:30 本文热度 206

GoUpSec点评:“村村点火”的生成式AI正引发一场企业网络安全革命。AI工具引入了全新的攻击媒介和数据安全威胁,传统的静态防御体系已形同虚设,网络安全行业面临一场技术/工具、方法和技能的全面更新。



对于企业而言,AI既是提升生产力的强大工具,同时也为攻击者和恶意内部人员提供了“大杀器”。随着生成式AI(例如ChatGPT和DeepSeek)在企业和政府机构中的广泛应用和不安全部署,“万模裸奔”产生的数据安全风险已经到了失控的边缘。


2025年是AI安全元年,首席信息安全官(CISO)们必须提前做好准备,应对“万模裸奔”引发的数据安全危机。


警惕数据的“智能化泄漏”


与传统IT系统不同,生成式AI引入了全新的攻击媒介,可导致数据泄漏、业务中断甚至法律风险例如:


  • 提示注入:恶意行为者操纵AI提示来改变输出或暴露敏感数据。

  • 数据中毒:对手破坏训练数据以影响模型行为。

  • 幻觉:人工智能产生虚假或误导性的信息,可能会损害决策过程。


由于生成式AI的发展和普及速度很快,CISO和安全团队往往缺乏足够经验和技能应对AI安全风险,在威胁建模和风险评估方面存在较大差距。


面对汹涌的生成式AI浪潮,企业最担心的还是数据安全问题(例如商业机密数据被竞争对手获取)。以最近的一起案例为例:一名员工利用AI助手访问了企业内部数据库,窃取了包含客户销售记录和产品使用情况的敏感数据,并将其带到新的雇主处使用。


这正是生成式AI放大数据泄露风险的典型例子。据Gartner最新研究,微软365 Copilot、Salesforce等基于生成式AI的工具正成为企业提升生产力的利器,但其对数据安全的威胁亦呈指数级攀升。近60%的受访者认为,过度共享、数据泄漏和内容蔓延是企业部署人工智能助手时面临的最大风险。


Salesforce首席执行官Marc Benioff在2024年10月公开批评了Microsoft的Copilot,称其为“令人失望的Clippy 2.0”。他引用了Gartner的报告,强调了Copilot在数据过度共享和安全方面的问题,导致许多组织推迟了实施计划。


AI引爆“权限炸弹”


研究显示,企业近99%的访问权限处于闲置状态,其中过半属于高风险权限。传统安全管理中,冗余权限本已是重大隐患,而生成式AI的介入使问题急剧恶化,甚至会引爆这些“权限炸弹”,以几何级数放大数据安全风险。例如,Microsoft Copilot可以访问所有用户权限范围内的数据,即使用户本人并未意识到自己拥有这些权限。这意味着,敏感数据可能通过AI对话被无意或恶意泄露。


AI改写网络攻击游戏规则:从技术渗透到提示注入


除了增加数据泄漏风险外,生成式AI还在改写网络攻击的游戏规则。传统黑客攻击通常需要攻击者耐心渗透系统,探索内部环境,生成式AI彻底颠覆了传统攻击模式。攻击者无需再耗时渗透系统,只需向AI助手提问(提示注入)即可获取敏感信息或访问凭证,进而实施横向移动。当前AI对网络安全的六大核心挑战包括:


  • 员工数据访问权限过度宽松


  • 敏感数据标识缺失或错误


  • 内部人员通过自然语言快速定位并外泄数据


  • 攻击者利用AI挖掘权限升级路径


  • 人工难以及时校准动态权限


  • AI持续生成新型敏感数据


尽管这些风险并非新问题,但AI的介入极大地降低了信息泄露的门槛,使得攻击者比以往更容易大规模高效率利用企业的安全漏洞。


万模裸奔:部署开源模型的风险


随着开源AI模型的兴起,许多企业选择部署如DeepSeek等模型,以期在本地环境中利用AI技术。然而,这种做法也带来了新的安全隐患。


根据奇安信近日发布的资产测绘监测结果,在8971个Ollama(一款开源大语言模型服务工具)大模型服务器中,有6449个活跃服务器,其中88.9%都“裸奔”在互联网上,面临数据泄漏、服务中断和滥用等严重威胁。私有化部署开源模型的风险主要有以下几点:



1

暴露的服务器风险


近期,有攻击者通过自动化脚本扫描暴露的DeepSeek服务器,恶意占用大量计算资源,导致部分用户服务器崩溃。


2

缺乏安全认证


一些工具(例如Ollama)在默认情况下未提供安全认证功能,导致许多部署DeepSeek的用户忽略了必要的安全限制,未对服务设置访问控制。这使得任何人都可以在未经授权的情况下访问这些服务,增加了数据泄露和服务中断的风险。


3

模型固件加密不足


在本地化部署中,模型核心逻辑需要嵌入硬件固件,以防止恶意篡改或逆向工程。如果缺乏适当的加密措施,攻击者可能会利用这些漏洞,进一步威胁系统的安全性。


4

数据合规性问题


开源模型的训练数据来源复杂,可能涉及版权和隐私问题(甚至导致严厉监管处罚的内容安全问题)。企业在使用这些模型时,需要确保数据来源合法,并在部署前进行全面的安全测试,以避免潜在的法律和安全风险。


构筑新型AI防御体系的八大关键措施


要想降低AI带来的数据安全风险,CISO们必须夯实数据管理基础,方可引入AI工具。在部署基于大模型的AI工具(无论是开源还是闭源,云端还是本地私有部署)之前,企业需要明确所有敏感数据的存储位置,并具备识别风险、修复安全漏洞和优化权限配置的能力。


企业部署DeepSeek等开源模型时,需重视和采取以下主动防御措施:


  • 定期进行安全审计:对模型和相关系统进行定期的安全检查,及时发现并修复潜在的漏洞。严格审核第三方AI模型的训练数据来源与隐私政策,防范数据主权争议。


  • 弥补AI安全技能鸿沟:鼓励员工获取AI安全相关认证(如CAISP、CISSP-AI),提升专业技能,同时通过模拟攻击演练(如红队/蓝队演习)增强实战能力。建立内部培训计划,开发针对AI安全的技术培训课程,涵盖模型漏洞分析、数据隐私保护、算法偏见识别等内容,培养既有AI技术背景又有安全意识的复合型人才。


  • 加强员工安全意识培训:AI大大提升了攻防两端的能力(例如DeepSeek极大提升了勒索软件和网络钓鱼的中文水平),这意味着企业需要紧急追加预算提高员工的安全意识水平,确保他们了解并识别那些足可以假乱真的钓鱼信息、AI幻觉信息,以及学习安全使用和管理AI工具。


  • 遵守数据合规性要求:在使用开源模型时,确保遵守相关的数据保护法律法规,避免侵犯用户隐私或知识产权。


在AI工具正式投入使用后,安全管理人员需要采取以下持续监控措施:


  • 权限动态治理。实施最小权限原则,定期审计员工权限范围,确保AI工具访问权限与用户实际需求严格匹配,杜绝“权限闲置即风险”的隐患。


  • 数据智能分类。通过自动化工具全域扫描敏感数据,建立精细化标签体系,为数据防泄露(DLP)策略提供可执行的分类基准。


  • 人机行为监控。构建AI操作审计机制,实时监测异常提示词(Prompts)、文件访问模式等行为特征。例如,某员工若频繁要求AI汇总客户清单并关联财务数据,系统需立即触发告警。


  • 影子AI可视化。通过CASB(云访问安全代理)监控数百个AI应用,识别高风险工具并建立禁用清单(如金融行业100%屏蔽未授权AI)。


生成式AI快速普及带来的数据安全威胁正在引发一场企业网络安全革命,导致企业安全体系的大规模范式转移。CISO必须意识到:当AI工具能瞬间调用全网数据时,传统的静态防御体系已形同虚设。唯有将安全文化、数据治理、权限管控与行为分析深度耦合,方能驾驭AI这把“效率与风险并存的大杀器”。要想因对包括影子AI在内的生成式AI带来的数据安全危机,CISO亟需开展一场融合技术、管理与文化的系统性变革。


该文章在 2025/2/21 10:50:47 编辑过
关键字查询
相关文章
正在查询...
点晴ERP是一款针对中小制造业的专业生产管理软件系统,系统成熟度和易用性得到了国内大量中小企业的青睐。
点晴PMS码头管理系统主要针对港口码头集装箱与散货日常运作、调度、堆场、车队、财务费用、相关报表等业务管理,结合码头的业务特点,围绕调度、堆场作业而开发的。集技术的先进性、管理的有效性于一体,是物流码头及其他港口类企业的高效ERP管理信息系统。
点晴WMS仓储管理系统提供了货物产品管理,销售管理,采购管理,仓储管理,仓库管理,保质期管理,货位管理,库位管理,生产管理,WMS管理系统,标签打印,条形码,二维码管理,批号管理软件。
点晴免费OA是一款软件和通用服务都免费,不限功能、不限时间、不限用户的免费OA协同办公管理系统。
Copyright 2010-2025 ClickSun All Rights Reserved