首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

用API调用DeepSeek,到底安全不安全?

最近,总有吃瓜群众问:通过API的方式,来调用市面上各种DeepSeek服务,到底安全不安全,会不会造成隐私或者数据泄露?

先说结论:不安全!

无论是通过API还是通过网页版,或者各种APP客户端,都存在一定的安全风险。

具体存在哪些风险呢?

首先明确一点,当通过API或者WEB/APP使用大模型服务的时候,你的Prompt信息(输入的文本、问题、指令,提交的图片或者文档等等),都会被传送到公网和云端服务器。

那么以下环节,就可能存在风险

1、数据传输风险

当你通过网络将数据发送到云端API时(网页版也一样),如果这个链接不是HTTPS加密的,那么,你就要小心了,数据可能会被拦截或窃听。

当然,绝大多数正规服务提供商都会默认使用加密传输,但是,也不排除某些草台班子搞出“超纲”的操作。(尤其要注意某些山寨的或者廉价的服务商)

2、服务提供商的隐私政策与存储策略

用户提交到服务器端的数据,在大模型完成推理任务后,这些数据默认会被“短暂保存”,主要用于日志、合规审计、服务优化等目的(这是作为服务商必须的,也是合理正当的)。

但不排除数据会被长期保存,并被用于训练,这需要看不同服务商的隐私政策。

所以,大家在使用注册使用服务的时候,一定要仔细看用户协议和隐私政策,确认数据是否会被存储、如何存储、存储多久,以及数据是否会被使用。

比如DeepSeek官方API的用户协议,是这样写的

这是另外一家第三方API提供商的协议,明确说明不会访问和使用。

当然因为这是一家纯纯的第三方,并没有自家的模型,所以不拿数据去训练也是理所应答的。

我们再看ChatGPT的协议,就很霸道了。

明确说了会将数据用于训练,不过他们也给了一个可选的通道,允许用户禁止自己的数据用于训练。

当然,对于商业用户,OpenAI默认不会把他们的数据拿去训练。

不管协议怎么约定,数据在别人手里,总还是让人觉得不妥帖的。

与本地部署的模型相比,云端API意味着你无法完全控制数据的处理环境,你必须依赖服务提供商的承诺和能力来保护数据。

3. 大模型服务商自身的安全能力

即使API服务商“一心向善”,恪守不碰数据的原则。

但如果他们安全能力不足(比如服务器被黑客攻击),你的数据仍然会面临泄露风险。

选择有良好声誉、技术实力雄厚、具备强大安全认证(如ISO 27001)的提供商可以降低这种风险。

4. 本地RAG知识库的数据泄露

还有一种典型的应用场景,那就是在调用API的同时,本地部署了知识库做RAG。

有小伙伴问:本地的知识库会被传输到云端吗?

我们先来看一下完整的数据交互流程,由于增加了RAG,整个流程多了两步。

通过这个流程可见,本地知识库在使用过程中,并不会被完整上传到云端。

但是与用户问题最相关知识片段,会被上传、存储。

所以,使用RAG,不仅当前提交的内容有泄露风险,本地知识库也会泄露,知识库中要避免存储敏感信息(隐私数据、商业机密)。

总的来说,调用云端大模型API服务确实有一定的数据泄露风险,如果有严苛的合规要求和数据安全需求,建议选择以下方案

1、完全本地化部署:一体机、本地化集群、专属云等,牺牲灵活性和成本来换安全。

2、云上专属模型部署:选择可靠的、有数据安全背书的AI Infra服务商,部署专属模型。

3、如必须调用API,则增加数据脱敏措施,避免提交敏感数据,或者在知识库中存放敏感数据。

当然,本地化部署并不一定就比云上安全,这取决于本地的安全防护能力、运维水平和安全意识。

就好比,把钱放在家里未必比放在银行保险柜安全。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Oap7vH4ZcMxhhz8YvHxuMYSA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券