DeepSeek崛起
本同国内AI公司背靠互联网大厂不同,DeepSeek由量化对冲基金幻方量化运营。
2016年--幻方量化推出首个 AI 模型,基于深度学习的交易仓位诞生。
2017年--幻方量化将 AI 融入几乎所有的量化策略中。
2023年--幻方量化宣布成立创新型大模型公司,DeepSeek诞生。
2023年--DeepSeek推出并开源了深度求索(DeepSeek Chat)模型,包含7B和67B两个版本。
2024年12月--DeepSeek-V3推出并开源。
2025年1月20日--DeepSeek-R1推出,在Chatbot Arena综合榜单上排名第三,与OpenAI的顶尖推理模型o1并列。
据每日经济新闻报道,DeepSeek的R1的预训练费用只有557.6万美元,仅是OpenAI GPT-4o模型训练成本的不到十分之一。同时,DeepSeek公布了API的定价,每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens 16元。这个收费大约是OpenAI o1运行成本的三十分之一。
“人红是非多”,2025年春节期间,DeepSeek遭受史诗级DDoS攻击,带宽高达3.2Tbps,相当于每秒传输100余部4K电影。攻击方式包括:
反射放大攻击:在1月27日之前的攻击中,主要以NTP、SSDP、CLDAP等反射放大攻击为主。攻击者利用这些协议的特性,通过伪造目标服务器的IP地址,向第三方服务器发送请求,使第三方服务器返回大量数据给目标服务器,从而消耗目标服务器的网络带宽和系统资源。
HTTP代理攻击:自1月27日开始,大量HTTP代理攻击出现。攻击者利用HTTP代理服务器,隐藏自身IP地址,向DeepSeek发起恶意请求,增加了攻击的隐蔽性和防御难度。
僵尸网络攻击:1月30日凌晨,RapperBot和HailBot这两个Mirai变种僵尸网络参与对DeepSeek的攻击。僵尸网络控制大量如物联网设备等被感染设备,发起分布式拒绝服务(DDoS)攻击,耗尽DeepSeek服务器网络带宽和系统资源,致其无法正常服务。
2025年1月31日,DDoS攻击之后,在DeepSeek的CDN端点检测到一个基于DOM的跨站脚本漏洞。该漏洞是由于对postMessage事件处理不当导致的,攻击者可以在不进行适当来源验证或输入清理的情况下,将恶意脚本注入文档上下文。这一漏洞可能导致攻击者劫持用户会话、窃取敏感信息,甚至发起网络钓鱼攻击。
2025年2月1日已有漏洞,但同一天又发现了另一XSS漏洞。这个漏洞使攻击者能够在DeepSeek人工智能平台内注入并执行任意JavaScript代码。
ClickHouse 数据库泄露
Wiz Research最近发现,DeepSeek的基础设施存在重大安全漏洞,通过可公开访问的ClickHouse数据库,大量敏感数据被暴露。
在oauth2callback.deepseek.com和dev.deepseek.com托管的两个数据库实例,在端口8123和9000上存在未授权访问漏洞,任意用户都可以通过ClickHous的HTTP接口访问和操作数据。这个漏洞导致超过一百万行的日志流被曝光,包含聊天记录、API密钥、后端详细信息和操作元数据等高度敏感的信息。
Wiz Research展示了执行任意SQL查询的能力,能从名为log_stream的表中检索数据,该表包含聊天记录、API密钥和内部系统详细信息等敏感内容。
这一事件尤其令人担忧,因为DeepSeek的R1论文中并未提及任何特定的加密标准,这让人对其系统内敏感数据的保护产生质疑。这些数据库包含一个“log_stream”表,存储了自2025年1月6日以来的敏感内部日志,其中包括用户对DeepSeek聊天机器人的查询、后端系统用于验证API调用的密钥、内部基础设施和服务信息,以及各种操作元数据。
网络安全防护体系构建
构建AI威胁平台,利用人工智能技术收集和分析大量的网络数据、系统日志以及用户行为数据,自动识别潜在的安全威胁。及时监测网络中的异常流量、恶意软件活动以及未知的攻击行为,为安全团队提供精准的威胁情报,帮助他们快速响应和处理安全事件。
实施动态访问控制防护,根据用户的角色、权限以及访问的上下文环境,动态生成访问控制策略。这样可以确保每个用户只能访问其被授权的资源,有效防止非法访问和数据泄露。
强化溯源能力,清晰记录数据的来源、流向和处理过程,以便在发生数据泄露或异常篡改时,能够迅速追溯到问题根源。同时,对敏感数据进行加密处理,确保数据在传输和存储过程中的保密性和完整性。
建立供应链安全评估机制
对供应商进行安全评估,包括其安全管理体系、技术能力、安全事件响应能力等方面。选择具有良好安全信誉和可靠安全能力的供应商,降低供应链安全风险。
在供应链的关键环节部署硬件级可信执行环境,为关键计算任务提供一个安全、可信的运行环境。确保关键数据和计算过程在硬件层面得到保护,防止外部攻击和内部泄露的风险。
建立“红蓝对抗”机制
创建“红蓝对抗”常态化机制,在专业服务商团队的配合下,在企业内部建立专业的“红队”和“蓝队”。“红队”模拟黑客攻击,以当下流行的攻击手段,寻找系统和网络中的安全漏洞;“蓝队”负责防守,应对“红队”的攻击,提升防御能力。通过常态化的“红蓝对抗”演练,不断发现和修复安全漏洞,提高安全团队的实战能力。
推行安全能力量化评估
建立安全能力量化评估体系,对企业的安全能力进行客观、准确的评估。从安全防护的有效性、安全事件的响应速度、安全策略的合规性等多个维度进行量化评估,帮助企业清晰了解自身安全能力的现状和不足,为安全建设提供明确的方向和目标。
网络层面,部署防火墙和ACL过滤恶意流量,使用IPS监控并实时阻止DDoS攻击,借助CDN分配流量,分析流量模式减少流量型攻击影响;
应用层面,运用WAF检查流量、阻止恶意请求并定期更新规则,通过更改网络设置等方式发现并修复漏洞,添加验证码防御bot攻击;
基础设施层面,采用可扩展和分布式基础设施,如Anycast网络路由、负载均衡器和CDN,在不同网络部署数据中心,增加基础设施韧性;
专业DDoS防护服务方面,利用云服务商的专业工具持续监控并过滤恶意流量,运营商提供流量清洗等服务,借助分布式近源清洗等技术帮助企业应对攻击;
安全运营和管理上,提前制定DDoS响应计划,使用实时流量分析工具监控并设置警报。
避免敏感信息:不在AI应用中输入个人隐私、财务信息或机密数据。
了解隐私政策:使用前仔细阅读隐私条款,确保数据使用符合预期。
建立供应链安全评估机制
对供应商进行安全评估,包括其安全管理体系、技术能力、安全事件响应能力等方面。选择具有良好安全信誉和可靠安全能力的供应商,降低供应链安全风险。
在供应链的关键环节部署硬件级可信执行环境,为关键计算任务提供一个安全、可信的运行环境。确保关键数据和计算过程在硬件层面得到保护,防止外部攻击和内部泄露的风险。
验证信息准确性:对AI生成的内容保持怀疑,尤其是重要决策时。
识别虚假内容:注意AI生成的虚假文本、图像或视频,避免传播不实信息。
遵守法律法规:确保AI使用符合当地法律和道德规范。
避免滥用:不利用AI进行非法或不道德的活动。
强密码设置:为AI应用账户设置复杂密码,并定期更换。
启用双重认证:增加账户安全性,防止未经授权访问。
关注异常行为:发现AI行为异常时,立即停止使用并联系开发者。
反馈问题:及时向开发者报告安全漏洞或不当行为。
提升安全意识:学习AI安全知识,增强防范能力。
培训家庭成员:确保家人了解AI使用中的安全风险。
评估供应商信誉:选择有良好安全记录的AI服务提供商。
查看用户评价:参考其他用户的反馈,选择可靠的AI应用。