AI Red Teaming是模拟针对AI系统的对抗性攻击的实践,旨在恶意行为者之前主动识别漏洞,潜在的误用场景和故障模式。
vmpwn从入门到精通
前言 用大模型LLM做安全业务的师傅们一定知道,提示词对于大模型在下游任务的表现的影响是很重要的。 因为大模型本质上是条件概率建模器,其输出严格依赖于输入上下文。在无监督预训练之后,这...
在刚刚过去的RSA大会上,AI安全领域迎来了井喷式的发展。从SIEM(安全信息与事件管理)、SOAR(安全编排自动化与响应)、ITDR(身份威胁检测与响应)到DSPM(数据安全态势管理)、红队测试和防...
CCBCISCN初赛Pwn部分题解
攻击者通过伪装成司法部门,进行钓鱼攻击。
事情是这样的,家里人从网上买了一个定位器,买之前也没问客服,结果到手之后一看竟然要收费才能使用,由于本来没多少钱后续就没退,然后我听了之后来了兴致,我想着能不能有什么漏洞能白嫖,于是有了本文,虽然最后解决也不难,不过我觉得最重要是满满的全是思路。
生异形吗,挖掘构建你自己的Java内存马
演讲议题:高效漏洞挖掘的技战法
什么是存储桶 想象存储桶就像你家里的一个大柜子,专门用来存放各种物品(文件)。在阿里云对象存储服务(OSS)中,存储桶(Bucket)就是存放文件(对象)的基本容器。每个存储桶有自己唯一的名称,就...
生成另类免杀马
扩散模型的背后一个很核心的风险就是未授权数据集使用的问题。当然,这种侵权分为两种,一种是使用文生图模型得到的图像,其版权归属问题,比如之前的新闻提到,北京互联网法院全国首例“AI文生图”著作权侵权案获最高法院“两会”工作报告关注
上篇文章中我们已经基本了解了微调一个基座大模型的流程,本文我们将集中于微调出一个实际的安全大模型。 因此首先有必要必要了解微调出一个安全大模型存在的难点
本文主要是对langflow这一AI产品进行了漏洞分析,同时通过阅读官方文档的方式对漏洞的利用方式进行了进一步的扩展利用,剖析在AST解析执行的过程中因为`decorator`或者参数注入的方式导致的RCE漏洞的姿势,后续也将其添加到codeql规则中,进行AI产品代码的批量检测与漏洞挖掘
本文提出了一种基于DQN强化学习的XSS载荷自动生成方法,通过神经网络替代Q表格,结合经验回放和目标网络优化训练。系统包含特征提取(257维向量)、WAF检测(正则规则)和免杀变形(6种字符级操作)三大模块,在Gym框架下实现智能体与WAF的对抗训练。实验表明,经过100轮训练后,智能体可生成有效绕过WAF的XSS载荷,为AI驱动的Web安全测试提供了新思路。
本文解读了国外公司Corgea提出的结合LLM(大型语言模型)和SAST(静态应用安全测试)的创新解决方案——BLAST(业务逻辑应用安全测试)。其通过CodeIQ语义理解引擎结合AST(抽象语法树)技术,增强传统SAST的检测能力。BLAST能够处理特殊框架行为、减少误报,并通过语义理解检测业务逻辑漏洞。
Cdp协议深度应用与探索
在RASP的防御下,如何绕过waf以达到反序列化,进而RCE呢?
急急急急急急急急急急急急急急急急急急急急急急急急急急急急急急
本文将介绍Cobalt Strike(下文简称CS)的UDRL(User Defined Reflective Loader,即用户自定义反射加载器)的RDI(Reflective Dll Inject,即反射dll注入)的实现。CS的UDRL是前置式的RDI,本文主要包括反射dll加载器的代码实现和反射dll的代码实现两大部分,我会尽量以相似且精简的代码去告诉大家CS的UDRL是怎么工作的和它的代码是怎么实现的。