本文立足于大模型红队攻防实战,剖析越狱攻击的技术本质——即利用模型对齐缺陷触发非预期行为。内容涵盖结构化角色嵌套(JSON)、伪代码封装(DSPy)等具体 POC 案例,并对多语言、语义反转、格式注入等攻击手法进行了分类解析。文章进一步指出,随着模型具备 API 调用与智能体能力,越狱危害已突破内容安全层面,演变为可直接操作系统的应用安全风险。通过对比纯文本交互、插件调用与智能体驱动三种数据流,本文揭示了从“生成有害文本”到“执行恶意代码”的攻击面升级,为构建纵深防御体系提供技术参考
多模态AI系统(如Gemini、Claude、GPT-4o等)在处理用户上传图像时,通常会先对高分辨率图片进行缩放(resize)以匹配模型输入尺寸。这本是标准预处理步骤,却被安全研究人员武器化成一种隐蔽的间接提示词注入攻击:攻击者在原始大图中嵌入肉眼几乎不可见的恶意指令,当系统缩放图像时,这些指令才会“显现”并被视觉模型读取,从而触发数据泄露、越狱或其他恶意行为。
模型反演攻击(Model Inversion Attack, MIA)是机器学习隐私领域的一大隐患:攻击者仅通过访问模型输出或内部信息,就能“逆向工程”出训练数据的敏感特征。本文聚焦图像分类模型的黑白盒反演攻击,以通俗易懂的方式,从原理到代码、从实验到分析,全链路演示这一攻击的威力与风险。
GNU InetUtils telnetd(版本 1.9.3 至 2.7)存在高危远程认证绕过漏洞。攻击者可通过 Telnet 协议的环境变量协商机制,在连接阶段注入恶意 `USER` 环境变量(如 `USER="-f root"`),直接以指定用户身份登录,从而使攻击者无需密码即可获得 root shell,完全控制目标服务器。
LangChain 是一个用于构建基于ai大语言模型(LLM)应用程序的框架。在受影响版本中,存在序列化注入漏洞。
2025年LLM的内容安全已经有质的飞跃了,基于模型内生安全、外挂的安全审核模型、改写模型等等手段,传统的基于提示词工程的黑盒攻击逐渐难以突破愈发完善的防御机制,而白盒攻击通过直接操纵模...
随着DevSecOps的推进,应用安全已逐步融入SDLC各阶段,一个长期存在的问题依然突出:安全工具往往能发现问题,却难以判断其真实性、可利用性及处置优先级。这些持续消耗研发与安全团队的时间精力。近年来随着大语言模型的迅速发展,为这一困境提供了新的可能,本文结合实际应用安全建设经验,重点探讨AI在硬编码、SCA、漏洞挖掘等场景中的应用安全实践方法。
在2025年,大语言模型(LLM)推理服务已全面进入多租户时代,KV Cache作为核心加速技术,让Prefill阶段并行计算、Decode阶段复用历史键值,带来5–8倍的吞吐提升。然而,这把“双刃剑”也暴露了严重的安全隐患:共享缓存下的时序侧信道可直接泄露用户Prompt;更隐蔽的History Swapping能悄无声息劫持输出话题;腐败攻击则通过扰动Key向量引发幻觉与性能崩坏。
前段时间在某大厂做安全研究时,针对SDLC的重复性审计工作结合大模型Agent思索了一些可行的思路,便在不断摸索中构建了一个Multi-Agent的协同漏洞挖掘框架系统,目前个人使用来看对于开源的web应用的实战效果相比传统的SAST、DAST以及纯LLM的漏洞挖掘工具来说还是很不错的,便记录此篇框架实现思路和当今Agent赋能漏挖的可行性与优势供师傅们交流指点....
对protswigger的第三个大模型prompt注入靶场进行实战记录
随着大模型智能体的发展,关于大模型工具调用的方式也在进行迭代,今年讨论最多的应该就是MCP了,新的场景就会带来新的安全风险,本文将对MCP安全场景进行探究。
在从事了一段时间对AI框架组件的安全审计研究后,也挖掘到了很多相似的注入漏洞,对于目前的AI框架组件(PandasAI,LlamaIndx,Langchain...)对于该类型漏洞的通病结合实战实例以及学术界的研究做了系统性的归纳,站在AI框架的顶层角度对该类AI框架组件中的注入漏洞进行研究分析,供师傅们交流指点...
fastjson 写文件
探讨一种结合模型窃取与拒绝服务攻击的组合路径,希望发现AI安全领域新型攻击思路。
最近看到了一个有关大模型数据投毒的视频,分析了一下相关方法与技术,以一个小白的视角来分享一下学习到的心得与技巧。
最近在研究LLM集成应用框架时,在审计某BAT大厂的github18k大型开源LLM集成应用框架项目时发现了一处隐蔽的加载漏洞,虽然开发者打过了防御补丁,但仍然可进行绕过并已提交CVE。遂深入进行了该类型的漏洞在LLM集成应用框架中的探究,供师傅们交流指点...
去年的时候,外网上出现了一个名为Freysa AI。它旨在通过举办大模型安全赏金竞赛游戏,来吸引全球爱好者一起探索:人类的智慧能否找到一种方法说服AGI违背其核心指令?这里对解题思路进行一波学习
随着大语言模型(LLM)从单纯对话向自动化执行演进, MCP (Model Context Protocol) 协议正迅速成为连接模型大脑与外部工具(文件、数据库、API)的标准“USB接口”。然而,这种高度集成的架构也引入了一个AI隐式执行的风险。不同于传统的前端提示词注入,基于 MCP 的攻击发生在系统底层的协议交互阶段。本文将通过两个小实验实测复现,演示如何通过篡改MCP工具元数据,诱导模型进入逻辑陷阱,从而实现敏感数据的静默外泄。
本文详细讲解了MQTT协议的基本原理,环境搭建,并以两道经典MQTT-pwn例题详细讲解了MQTT协议在通信过程中的利用
从JDBC Mysql利用NamedPipeSocket实现不出网RCE到Mysql Handshake协议流量分析,理解FakeMysql Server实现原理,学习如何构造PipeFile来实现攻击