基于影子栈的大模型系统防御技术

在传统系统安全中有一个典型的技术—影子栈(shadow stacks),它可以防御内存溢出攻击。那么类似于影子栈创建一个影子内存空间,如果可以正常栈中建立与目标LLM实例(LLMtarget)并行的影子LLM防御实例(LLMdefense),那理论上就是可以实现防御的

  • 0
  • 0
  • elwood1916
  • 发布于 2025-05-09 09:40:07
  • 阅读 ( 180 )

多智能体系统(MAS):如何让AI团队协作解决复杂问题?

你有没有想过,世界上最复杂的问题,可能并不是靠单一的力量解决,而是通过一群智能体的协作来完成?**多智能体系统(Multi-Agent System, MAS)**正是这样一种技术框架,它允许多个独立的智能体(Agents)通过协作、思考和适应,共同完成复杂任务。

  • 0
  • 1
  • Halo咯咯
  • 发布于 2025-05-06 09:00:03
  • 阅读 ( 467 )

基于树模型对恶意代码的静态分析方法

你将学到什么?​​ ✅ ​​决策树的数学基础​​:信息增益 vs. 基尼系数 vs. 增益率,如何影响模型表现? ✅ ​​Bagging vs. Boosting​​:为什么随机森林能并行,而XGBoost必须串行训练? ✅ ​​XGBoost的工程优化​​:二阶泰勒展开、正则化、特征重要性如何让预测更精准? ✅ ​​AST(抽象语法树)实战​​:如何把PHP代码转换成机器学习可用的数值特征? ✅ ​​调参技巧与评估指标​​:如何用网格搜索和Fβ分数平衡准确率与召回率?

  • 0
  • 1
  • 1gniT42e
  • 发布于 2025-04-30 09:01:48
  • 阅读 ( 504 )

我用MCP开发了一个AI目录扫描分析工具

本工具结合了当下的MCP协议中sse方案,给传统的目录扫描工具dirsearch对接上了AI大模型,并对扫描结果进行数据筛选及深度分析并输出漏洞报告。

  • 4
  • 6
  • Elite
  • 发布于 2025-04-29 10:00:00
  • 阅读 ( 1067 )

多语言和多口音音频大型语言模型的越狱攻击

本文将深入探讨多语言音频模型在实际应用中面临的安全挑战,特别是音频越狱攻击的机制与影响。我们将学习攻击者如何利用模型的漏洞,通过精心设计的音频输入绕过安全机制,诱导模型生成不当内容。

  • 0
  • 0
  • Werqy3
  • 发布于 2025-04-28 09:00:02
  • 阅读 ( 1155 )

vulnhuntr: LLM与SAST结合的AI产品漏洞自动化挖掘

通过结合静态代码分析和大语言模型(LLM)的方式来批量检测AI产品中的潜在漏洞

  • 1
  • 0
  • leeh
  • 发布于 2025-04-27 09:43:38
  • 阅读 ( 767 )

多智能体系统安全危机:从通信劫持到数据投毒,AI协作背后的隐患

在当今数字化浪潮中,多智能体系统(MAS)正逐渐成为解决问题的新范式。想象一下,一群由大型语言模型(LLM)驱动的智能体,它们各司其职,却又紧密协作,共同完成复杂的任务。这种系统不仅高效、可扩展性强,还能够像人类团队一样灵活应对各种挑战。然而,正如硬币的两面,这些强大的功能也带来了独特的安全风险。

  • 0
  • 1
  • Halo咯咯
  • 发布于 2025-04-25 09:33:57
  • 阅读 ( 737 )

基于嵌入扰动的大模型白盒越狱攻击

大模型(以下均用LLMs指代)发展迅速,但引发了大家对其潜在滥用的担忧。虽然模型开发者进行了大量安全对齐工作,以防止 LLMs 被用于有害活动,但这些努力可被多种攻击方法破解,典型的就是在社区里多篇文章中一直在强调的越狱攻击。这些攻击方法能找出安全对齐技术的漏洞,促使开发者及时修复,降低 LLMs 带来的安全风险

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-24 09:39:13
  • 阅读 ( 638 )

都2025年了,这十大 LLM 安全工具你该关注了!

在人工智能飞速发展的今天,大型语言模型(LLMs)已经深入到我们生活的方方面面,从智能客服到内容创作,从医疗诊断到金融分析,它们的身影无处不在。然而,随着 LLMs 的广泛应用,其安全性问题也日益凸显。数据泄露、未经授权的访问、模型被恶意操纵……这些风险不仅威胁到企业的正常运营,还可能对用户隐私和社会稳定造成严重影响。今天,就让我们一起走进 LLM 安全的世界,看看那些在 2025年值得关注的安全工具,它们是如何为 LLMs 筑起坚固的安全防线的。

  • 1
  • 0
  • Halo咯咯
  • 发布于 2025-04-22 09:44:41
  • 阅读 ( 976 )

RAG架构大揭秘:三种方式让AI回答更精准,更懂你!

在人工智能飞速发展的今天,我们已经习惯了与各种智能系统打交道,从聊天机器人到智能搜索引擎,它们似乎无处不在。但你有没有想过,这些系统是如何真正理解我们的需求,并给出准确回答的呢?今天,就让我们一起深入探索一下前沿的RAG(Retrieval-Augmented Generation,检索增强生成)技术,看看它如何让AI变得更“聪明”。

  • 0
  • 0
  • Halo咯咯
  • 发布于 2025-04-16 09:47:06
  • 阅读 ( 1051 )

拆解大模型“越狱”攻击:对抗样本如何撕开AI安全护栏?

本文系统拆解大模型面临的越狱攻击技术,揭示攻击者如何通过巧妙设计突破AI安全限制

  • 5
  • 5
  • Werqy3
  • 发布于 2025-04-14 10:08:47
  • 阅读 ( 2281 )

浅谈AI部署场景下的web漏洞

总结了一些部署过程中出现可能的漏洞点位,并且分析了对应的攻防思路

  • 1
  • 0
  • 7ech_N3rd
  • 发布于 2025-04-09 17:30:36
  • 阅读 ( 2039 )

【补天白帽黑客城市沙龙-西安站】AIGC安全实践 –– AI Red Teaming

演讲议题:AIGC安全实践 –– AI Red Teaming