LLM安全交叉领域与从业者技能矩阵

着大型语言模型(LLM)在商业和社会领域的广泛应用,其安全性已成为一项关键议题。本文旨在为LLM安全领域奠定基础,阐述其核心定义、原则、面临的主要威胁,并介绍相关的治理框架,以展示LLM安...

  • 0
  • 0
  • 洺熙
  • 发布于 2025-07-04 16:15:01
  • 阅读 ( 134 )

AI红队实践学习路线

AI红队实践学习路线 1.人工智能基础 从工程师视角出发,代码驱动,系统思考 这个阶段不仅是学习算法,更是建立一套工程化的思维习惯。你写的每一行代码,都应思考其在整个系统中的位置。一个AI...

  • 0
  • 0
  • 洺熙
  • 发布于 2025-07-04 16:14:58
  • 阅读 ( 159 )

大模型安全风险概览

理解大模型安全的全景视图 要真正掌握大模型安全,我们首先需要建立一个全景式的认知框架就像建筑师在设计摩天大楼时必须考虑地基、结构、电梯系统和消防安全一样,大模型的安全也需要从生命周...

  • 0
  • 0
  • 洺熙
  • 发布于 2025-07-04 16:14:55
  • 阅读 ( 115 )

LLM安全基础与各厂商安全策略设计

LLM安全基础 在深入探讨大语言模型(LLM)的安全风险与防护策略之前,建立一个清晰、坚实的基础认知至关重要。这不仅是为了确保后续讨论的有效性,更是因为对核心术语、基本原则及其内在逻辑的...

  • 0
  • 0
  • 洺熙
  • 发布于 2025-07-04 16:14:51
  • 阅读 ( 128 )

LLM概述与全景解析

LLM概述与全景 1 什么是 LLM? LLM是基于深度神经网络架构的预测模型。在通过在海量的语料库上进行大规模训练,学习并内化语言的统计规律,语义关联及上下文依赖, 训练目标通常是预测序列中的下...

  • 0
  • 0
  • 洺熙
  • 发布于 2025-07-04 16:14:46
  • 阅读 ( 126 )

破译之眼:AI重构前端渗透对抗新范式

利用AI一键对抗前端js的可用解决方案,省去以往调试时间,高效对抗js加密或sign校验等

AI 时代的 mcp 攻防探讨

模型上下文协议(Model Context Protocol, MCP)是一种用于在分布式系统中管理和共享模型上下文的协议,广泛应用于机器学习、区块链和物联网等领域。然而,随着MCP的广泛应用,其安全性问题也日益凸显。

  • 0
  • 0
  • 逍遥~
  • 发布于 2025-06-10 09:00:03
  • 阅读 ( 1474 )

基于条件干预的大模型推理时防御

之前很多研究工作已经表明,大语言模型(LLMs)的一个显著特点是它们能够通过激活中的丰富表示来处理高级概念。这一特性也使得在去年NeurIPS(人工智能顶会)上出现了很多与激活引导(activation steering)等技术的有关的工作

  • 0
  • 0
  • elwood1916
  • 发布于 2025-06-05 09:00:00
  • 阅读 ( 932 )

ai红队之路探索

AI Red Teaming是模拟针对AI系统的对抗性攻击的实践,旨在恶意行为者之前主动识别漏洞,潜在的误用场景和故障模式。

  • 0
  • 0
  • 逍遥~
  • 发布于 2025-06-04 10:00:00
  • 阅读 ( 1944 )

大模型应用提示词重构攻击

前言 用大模型LLM做安全业务的师傅们一定知道,提示词对于大模型在下游任务的表现的影响是很重要的。 因为大模型本质上是条件概率建模器,其输出严格依赖于输入上下文。在无监督预训练之后,这...

  • 0
  • 1
  • elwood1916
  • 发布于 2025-06-03 10:00:02
  • 阅读 ( 1161 )

2025年RSA大会:10大AI安全工具,开启智能防御新时代

在刚刚过去的RSA大会上,AI安全领域迎来了井喷式的发展。从SIEM(安全信息与事件管理)、SOAR(安全编排自动化与响应)、ITDR(身份威胁检测与响应)到DSPM(数据安全态势管理)、红队测试和防...

  • 0
  • 0
  • Halo咯咯
  • 发布于 2025-06-03 09:56:30
  • 阅读 ( 1275 )

基于注意力操纵的AIGC版权风险规避技术

扩散模型的背后一个很核心的风险就是未授权数据集使用的问题。当然,这种侵权分为两种,一种是使用文生图模型得到的图像,其版权归属问题,比如之前的新闻提到,北京互联网法院全国首例“AI文生图”著作权侵权案获最高法院“两会”工作报告关注

  • 1
  • 0
  • elwood1916
  • 发布于 2025-05-26 09:00:02
  • 阅读 ( 954 )

网络安全大模型微调:红队大模型

上篇文章中我们已经基本了解了微调一个基座大模型的流程,本文我们将集中于微调出一个实际的安全大模型。 因此首先有必要必要了解微调出一个安全大模型存在的难点

  • 3
  • 0
  • elwood1916
  • 发布于 2025-05-23 09:00:02
  • 阅读 ( 1899 )

langflow: AI产品AST代码解析执行产生的RCE

本文主要是对langflow这一AI产品进行了漏洞分析,同时通过阅读官方文档的方式对漏洞的利用方式进行了进一步的扩展利用,剖析在AST解析执行的过程中因为`decorator`或者参数注入的方式导致的RCE漏洞的姿势,后续也将其添加到codeql规则中,进行AI产品代码的批量检测与漏洞挖掘

  • 2
  • 1
  • leeh
  • 发布于 2025-05-22 09:00:02
  • 阅读 ( 1615 )

基于强化学习生成恶意攻击xss

本文提出了一种基于DQN强化学习的XSS载荷自动生成方法,通过神经网络替代Q表格,结合经验回放和目标网络优化训练。系统包含特征提取(257维向量)、WAF检测(正则规则)和免杀变形(6种字符级操作)三大模块,在Gym框架下实现智能体与WAF的对抗训练。实验表明,经过100轮训练后,智能体可生成有效绕过WAF的XSS载荷,为AI驱动的Web安全测试提供了新思路。

  • 3
  • 2
  • 1gniT42e
  • 发布于 2025-05-21 09:00:00
  • 阅读 ( 1498 )

LLM 时代下的 SAST :Corgea 方案解读

本文解读了国外公司Corgea提出的结合LLM(大型语言模型)和SAST(静态应用安全测试)的创新解决方案——BLAST(业务逻辑应用安全测试)。其通过CodeIQ语义理解引擎结合AST(抽象语法树)技术,增强传统SAST的检测能力。BLAST能够处理特殊框架行为、减少误报,并通过语义理解检测业务逻辑漏洞。

  • 1
  • 1
  • wh4am1
  • 发布于 2025-05-20 09:00:00
  • 阅读 ( 1272 )

基于概念擦除的AIGC防侵权技术

最近的文生图模型因为卓越的图像质量和看似无限的生成能力而受到关注。最近出圈,可能是因为openai的模型可以将大家的图像转变为吉卜力风格。

  • 0
  • 0
  • elwood1916
  • 发布于 2025-05-12 10:14:50
  • 阅读 ( 1409 )

基于影子栈的大模型系统防御技术

在传统系统安全中有一个典型的技术—影子栈(shadow stacks),它可以防御内存溢出攻击。那么类似于影子栈创建一个影子内存空间,如果可以正常栈中建立与目标LLM实例(LLMtarget)并行的影子LLM防御实例(LLMdefense),那理论上就是可以实现防御的

  • 0
  • 0
  • elwood1916
  • 发布于 2025-05-09 09:40:07
  • 阅读 ( 1263 )

多智能体系统(MAS):如何让AI团队协作解决复杂问题?

你有没有想过,世界上最复杂的问题,可能并不是靠单一的力量解决,而是通过一群智能体的协作来完成?**多智能体系统(Multi-Agent System, MAS)**正是这样一种技术框架,它允许多个独立的智能体(Agents)通过协作、思考和适应,共同完成复杂任务。

  • 0
  • 1
  • Halo咯咯
  • 发布于 2025-05-06 09:00:03
  • 阅读 ( 1994 )

基于树模型对恶意代码的静态分析方法

你将学到什么?​​ ✅ ​​决策树的数学基础​​:信息增益 vs. 基尼系数 vs. 增益率,如何影响模型表现? ✅ ​​Bagging vs. Boosting​​:为什么随机森林能并行,而XGBoost必须串行训练? ✅ ​​XGBoost的工程优化​​:二阶泰勒展开、正则化、特征重要性如何让预测更精准? ✅ ​​AST(抽象语法树)实战​​:如何把PHP代码转换成机器学习可用的数值特征? ✅ ​​调参技巧与评估指标​​:如何用网格搜索和Fβ分数平衡准确率与召回率?

  • 0
  • 1
  • 1gniT42e
  • 发布于 2025-04-30 09:01:48
  • 阅读 ( 1328 )