首页  部门简介  工作动态  E-党建  规章制度  服务指南  技术交流  政策法规  网络安全 
文章内容页
当前位置: 首页>>网络安全>>正文
用API调用DeepSeek,到底安全不安全?
2025-03-18 13:05  

最近,总有吃瓜群众问:通过API的方式,来调用市面上各种DeepSeek服务,到底安全不安全,会不会造成隐私或者数据泄露?先说结论:不安全!无论是通过API还是通过网页版,或者各种APP客户端,都存在一定的安全风险。

具体存在哪些风险呢?

首先明确一点,当通过API或者WEB/APP使用大模型服务的时候,你的Prompt信息(输入的文本、问题、指令,提交的图片或者文档等等),都会被传送到公网和云端服务器。

那么以下环节,就可能存在风险↓

1、数据传输风险当你通过网络将数据发送到云端API时(网页版也一样),如果这个链接不是HTTPS加密的,那么,你就要小心了,数据可能会被拦截或窃听。当然,绝大多数正规服务提供商都会默认使用加密传输,但是,也不排除某些草台班子搞出“超纲”的操作。(尤其要注意某些山寨的或者廉价的服务商)

2、 服务提供商的隐私政策与存储策略用户提交到服务器端的数据,在大模型完成推理任务后,这些数据默认会被“短暂保存,主要用于日志、合规审计、服务优化等目的(这是作为服务商必须的,也是合理正当的)。

但不排除数据会被长期保存,并被用于训练,这需要看不同服务商的隐私政策。所以,大家在使用注册使用服务的时候,一定要仔细看用户协议和隐私政策,确认数据是否会被存储、如何存储、存储多久,以及数据是否会被使用。比如DeepSeek官方API的用户协议,是这样写的↓

这是另外一家第三方API提供商的协议,明确说明不会访问和使用。当然因为这是一家纯纯的第三方,并没有自家的模型,所以不拿数据去训练也是理所应答的。↓

我们再看ChatGPT的协议,就很霸道了。明确说了会将数据用于训练,不过他们也给了一个可选的通道,允许用户禁止自己的数据用于训练。当然,对于商业用户,OpenAI默认不会把他们的数据拿去训练。

不管协议怎么约定,数据在别人手里,总还是让人觉得不妥帖的。与本地部署的模型相比,云端API意味着你无法完全控制数据的处理环境,你必须依赖服务提供商的承诺和能力来保护数据。

3. 大模型服务商自身的安全能力即使API服务商“一心向善”,恪守不碰数据的原则。但如果他们安全能力不足(比如服务器被黑客攻击),你的数据仍然会面临泄露风险。选择有良好声誉、技术实力雄厚、具备强大安全认证(如ISO 27001)的提供商可以降低这种风险。

4. 本地RAG知识库的数据泄露 还有一种典型的应用场景,那就是在调用API的同时,本地部署了知识库做RAG。

有小伙伴问:本地的知识库会被传输到云端吗?我们先来看一下完整的数据交互流程,由于增加了RAG,整个流程多了两步。

通过这个流程可见,本地知识库在使用过程中,并不会被完整上传到云端。但是与用户问题最相关知识片段,会被上传、存储。所以,使用RAG,不仅当前提交的内容有泄露风险,本地知识库也会泄露,知识库中要避免存储敏感信息(隐私数据、商业机密)。

总的来说,调用云端大模型API服务确实有一定的数据泄露风险,如果有严苛的合规要求和数据安全需求,建议选择以下方案↓

1、完全本地化部署:一体机、本地化集群、专属云等,牺牲灵活性和成本来换安全。

2、云上专属模型部署:选择可靠的、有数据安全背书的AI Infra服务商,部署专属模型。

3、如必须调用API,则增加数据脱敏措施,避免提交敏感数据,或者在知识库中存放敏感数据。

当然,本地化部署并不一定就比云上安全,这取决于本地的安全防护能力、运维水平和安全意识。就好比,把钱放在家里未必比放在银行保险柜安全。

关闭窗口

福建开放大学信息化中心  版权所有