Risen 勒索软件是一种加密型恶意软件,它侵入受害者系统后,会加密并重命名文件(通常在原扩展名后添加电子邮件地址与用户 ID,如 “.Default@firemail.de].E86EQNTPTT”),同时在桌面和登录前屏幕显示勒索信息,然后留下两个勒索信文件(“Risen_Note.txt” 和 “Risen_Guide.hta”),要求受害者联系攻击者(通过提供的邮箱地址)并在三天内合作,否则威胁泄露或出售网络中的数据。
在Java Web生态中,org.json是一个轻量级的json构造和解析工具包,其提供了简洁的API进行相关JSON的反序列化操作。浅谈其解析过程与参数走私案例。
本文主要讲解mips架构下的栈溢出漏洞复现以及利用,本文涉及到固件模拟、patch、动态调试等手法
《java安全漫谈》中讲到过利用TemplatesImpl链加载字节码,当时要求恶意类需要继承AbstractTranslet,至于为什么当时并没有说清,现在再聊下这个,以及如何不需要AbstractTranslet也能成功打通这条链子,这也可以为JDK高版本下继续使用TemplatesImpl奠定基石。
JMH,即Java Microbenchmark Harness,是专门用于代码微基准测试的工具套件。主要是基于方法层面的基准测试,精度可以达到纳秒级。该组件存在一个未被别人公开过但目前来说实战意义不大的反序列化漏洞,仅可当作思路阅读
本文详细讲解了MQTT协议的基本原理,环境搭建,并以两道经典MQTT-pwn例题详细讲解了MQTT协议在通信过程中的利用
在k8s中,一种利用sidecar容器和liveness probe技术,实现的高隐蔽性的权限维持方法
AI突破限制的多种手段 前言:目前看到过很多越狱AI的手法,绝大多数都是使用提示词注入来对互联网上现有AI进行越狱,本文章中介绍另外两个方法进行越狱。
挖掘金融类漏洞的核心不仅仅是技术点本身,更需要深入理解业务链路、资金流转规则、风控策略与账户体系,从而在“设计缺陷”中找到突破点。本文总结梳理常见的金融逻辑漏洞类型及关键节点的可利用点,帮助安全人员深入理解这些场景,快速定位高价值逻辑漏洞大大提升漏洞挖掘效率和准确度,减少资损信息泄露等高危问题的发生。
对抗图像是一种精心设计的输入数据,通过对原始图像进行细微修改,使机器学习模型(尤其是深度神经网络)产生错误的分类输出。
随着Android系统在移动设备中的主导地位,APP客户端安全漏洞已成为黑客攻击的主要入口。本议题将梳理Android APP常见客户端漏洞挖掘思路,包括:四大组件漏洞、Webview组件漏洞、防抓包对抗等,并结合实际案例演示漏洞挖掘过程。
”当金融App加固已成“坚盾”,全域加密让资产“隐身”传统测试手段频频受挫。我们该如何破局?本次分享将深入剖析金融行业在全面强化安全防护后面临的全新测试挑战,并共同探寻那片尚待挖掘的“隐秘战场”,为您的安全测试工作磨砺新的“利矛”。“
市面上主流的大模型服务,都已经建立一套相对成熟的安全架构,这套架构通常可以概括为三层过滤防御体系 1. 输入检测:在用户请求进入模型之前,通过黑白词库、正则表达式和语义分析,拦截掉那些意图明显的恶意问题。 2. 内生安全:模型本身经过安全对齐,通过指令微调和人类反馈强化学习(RLHF),让模型从价值观层面理解并拒绝执行有害指令。 3. 输出检测:在模型生成响应后,再次进行扫描,确保内容合规。。但攻击者依然在生成恶意内容、钓鱼邮件,甚至大规模恶意软件。
去年的时候,外网上出现了一个名为Freysa AI。它旨在通过举办大模型安全赏金竞赛游戏,来吸引全球爱好者一起探索:人类的智慧能否找到一种方法说服AGI违背其核心指令?这里对解题思路进行一波学习
一个平常不过的app加密竟然如此难搞?一开始不断受阻,不过最后也是破局并且复盘,而且又研究了AI利用的新思路,一键出结果,非常强的可实用性
PHP在Web应用中的普遍漏洞以及开发者、安全公司和白帽黑客为解决这些问题所做的努力。传统的静态、流和污点分析方法在性能上存在局限性,数据挖掘方法常受到误报/漏报的困扰,而近期基于深度学习的模型(主要是基于LSTM)并不天生适合程序语义等图结构数据。DeepTective是一种基于深度学习的PHP源代码漏洞检测方法,其核心创新在于采用混合架构,结合门控循环单元(GRU)处理代码令牌的线性序列(语法信息),以及图卷积网络(GCN)处理控制流图(CFG)(语义和上下文信息)
探讨一种结合模型窃取与拒绝服务攻击的组合路径,希望发现AI安全领域新型攻击思路。
常规的漏洞原理和利用都捻熟于心,但是为什么在SRC挖掘和攻防中,往往就是挖不到漏洞呢?我给了两点回复:第一个就是实战的经验比较少,对于漏洞在哪出现,有什么手法还掌握的不多;第二个是信息搜集没有得到要领,只会僵硬的进行信息搜集,对于边缘资产和隐形资产的发掘没有经验。
在从事了一段时间对AI框架组件的安全审计研究后,也挖掘到了很多相似的注入漏洞,对于目前的AI框架组件(PandasAI,LlamaIndx,Langchain...)对于该类型漏洞的通病结合实战实例以及学术界的研究做了系统性的归纳,站在AI框架的顶层角度对该类AI框架组件中的注入漏洞进行研究分析,供师傅们交流指点...
随着大语言模型(LLM)从单纯对话向自动化执行演进, MCP (Model Context Protocol) 协议正迅速成为连接模型大脑与外部工具(文件、数据库、API)的标准“USB接口”。然而,这种高度集成的架构也引入了一个AI隐式执行的风险。不同于传统的前端提示词注入,基于 MCP 的攻击发生在系统底层的协议交互阶段。本文将通过两个小实验实测复现,演示如何通过篡改MCP工具元数据,诱导模型进入逻辑陷阱,从而实现敏感数据的静默外泄。