作为企业 AI 应用落地的安全中枢,连接智能体、模型与服务,实现统一治理与高效协同,并通过多层次防护机制解决AI规模化应用中的关键风险。
中国互联网络信息中心 | 工程师 (已认证)
随着企业对电子邮件安全防护体系的持续投入,传统安全邮件网关(Secure Email Gateway, SEG)已成为抵御外部威胁的第一道防线。然而,近年来网络...
2025年7月,安全研究人员披露谷歌Gemini AI平台存在一项可被用于隐蔽钓鱼攻击的安全漏洞。攻击者通过在电子邮件正文中嵌入经CSS或HTML技术隐藏的恶意...
近年来,生成式人工智能(Generative Artificial Intelligence, GenAI)技术的迅猛发展在提升生产力的同时,也为网络攻击者提供...
近年来,生成式人工智能(Generative AI)技术迅猛发展,其在内容创作、代码生成和网页设计等领域的高效能力已被广泛验证。然而,这一技术亦被网络犯罪分子迅...
近年来,人工智能(AI)与前端开发工具的融合显著提升了Web应用的构建效率。然而,此类技术的开放性与易用性亦被恶意行为者所利用,催生出新型网络钓鱼攻击范式。本文...
随着生成式人工智能(Generative AI)技术的快速普及,大型语言模型(Large Language Models, LLMs)如GPT系列、Perple...
近年来,大语言模型(Large Language Models, LLMs)因其强大的文本生成、语义理解和对话交互能力,在企业办公自动化、客户服务、内容创作等场...
近年来,随着大型语言模型(Large Language Models, LLMs)的广泛应用,其高关注度也吸引了网络攻击者的注意。2025年6月,卡巴斯基实验室...
近年来,以ChatGPT为代表的生成式人工智能(Generative AI)技术被多国高级持续性威胁(APT)组织系统性地用于网络攻击活动。本文基于2025年V...
打开链接点亮社区Star,照亮技术的前进之路。每一个点赞,都是社区技术大佬前进的动力
• 图像隐写指令:CT扫描图中嵌入代码,诱导医疗模型误诊 • RAG文档篡改:污染知识库内容,操控招聘模型推荐错误候选人
最近,科技圈里“大模型备案”成了高频词。不少企业和开发者提到这个过程,第一反应都是“太烧脑了”。到底这个备案难在哪儿?为什么需要如此严格的审核?今天我们就来捋一...
可解释人工智能(XAI)方法被视作调试和信任统计与深度学习模型、解释其预测的重要工具。然而,对抗机器学习(AdvML)的最新进展揭示了最先进解释方法的局限性和脆...
随着Agentic AI协议的演进,AI系统正从单体模型向多代理协作生态转型。今天我将深度解析四大核心协议的技术特性与应用场景,希望能帮助到各位。
南京大学 & 美团联合团队发表了一篇 NAACL 2024 论文《A Wolf in Sheep’s Clothing: Generalized Nested ...
前言:Human-in-the-Loop(HIL)是一种AI系统设计模式,它允许人类在AI Agent的决策过程中介入并提供反馈或决策。在HIL系统中,AI A...
在过去的18个月里,LangChain无疑成为AI工程领域的耀眼明星——GitHub星标爆炸性增长、开发者峰会座无虚席、各种基于LangChain的创业公司如雨...