最近,总有吃瓜群众问:通过API的方式,来调用市面上各种DeepSeek服务,到底安全不安全,会不会造成隐私或者数据泄露?
先说结论:不安全!
无论是通过API还是通过网页版,或者各种APP客户端,都存在一定的安全风险。
具体存在哪些风险呢?
首先明确一点,当通过API或者WEB/APP使用大模型服务的时候,你的Prompt信息(输入的文本、问题、指令,提交的图片或者文档等等),都会被传送到公网和云端服务器。
那么以下环节,就可能存在风险
1、数据传输风险
当你通过网络将数据发送到云端API时(网页版也一样),如果这个链接不是HTTPS加密的,那么,你就要小心了,数据可能会被拦截或窃听。
当然,绝大多数正规服务提供商都会默认使用加密传输,但是,也不排除某些草台班子搞出“超纲”的操作。(尤其要注意某些山寨的或者廉价的服务商)
2、服务提供商的隐私政策与存储策略
用户提交到服务器端的数据,在大模型完成推理任务后,这些数据默认会被“短暂保存”,主要用于日志、合规审计、服务优化等目的(这是作为服务商必须的,也是合理正当的)。
但不排除数据会被长期保存,并被用于训练,这需要看不同服务商的隐私政策。
所以,大家在使用注册使用服务的时候,一定要仔细看用户协议和隐私政策,确认数据是否会被存储、如何存储、存储多久,以及数据是否会被使用。
比如DeepSeek官方API的用户协议,是这样写的
这是另外一家第三方API提供商的协议,明确说明不会访问和使用。
当然因为这是一家纯纯的第三方,并没有自家的模型,所以不拿数据去训练也是理所应答的。
我们再看ChatGPT的协议,就很霸道了。
明确说了会将数据用于训练,不过他们也给了一个可选的通道,允许用户禁止自己的数据用于训练。
当然,对于商业用户,OpenAI默认不会把他们的数据拿去训练。
不管协议怎么约定,数据在别人手里,总还是让人觉得不妥帖的。
与本地部署的模型相比,云端API意味着你无法完全控制数据的处理环境,你必须依赖服务提供商的承诺和能力来保护数据。
3. 大模型服务商自身的安全能力
即使API服务商“一心向善”,恪守不碰数据的原则。
但如果他们安全能力不足(比如服务器被黑客攻击),你的数据仍然会面临泄露风险。
选择有良好声誉、技术实力雄厚、具备强大安全认证(如ISO 27001)的提供商可以降低这种风险。
4. 本地RAG知识库的数据泄露
还有一种典型的应用场景,那就是在调用API的同时,本地部署了知识库做RAG。
有小伙伴问:本地的知识库会被传输到云端吗?
我们先来看一下完整的数据交互流程,由于增加了RAG,整个流程多了两步。
通过这个流程可见,本地知识库在使用过程中,并不会被完整上传到云端。
但是与用户问题最相关知识片段,会被上传、存储。
所以,使用RAG,不仅当前提交的内容有泄露风险,本地知识库也会泄露,知识库中要避免存储敏感信息(隐私数据、商业机密)。
总的来说,调用云端大模型API服务确实有一定的数据泄露风险,如果有严苛的合规要求和数据安全需求,建议选择以下方案
1、完全本地化部署:一体机、本地化集群、专属云等,牺牲灵活性和成本来换安全。
2、云上专属模型部署:选择可靠的、有数据安全背书的AI Infra服务商,部署专属模型。
3、如必须调用API,则增加数据脱敏措施,避免提交敏感数据,或者在知识库中存放敏感数据。
当然,本地化部署并不一定就比云上安全,这取决于本地的安全防护能力、运维水平和安全意识。
就好比,把钱放在家里未必比放在银行保险柜安全。
领取专属 10元无门槛券
私享最新 技术干货