基于概念擦除的AIGC防侵权技术

最近的文生图模型因为卓越的图像质量和看似无限的生成能力而受到关注。最近出圈,可能是因为openai的模型可以将大家的图像转变为吉卜力风格。

  • 0
  • 0
  • elwood1916
  • 发布于 2025-05-12 10:14:50
  • 阅读 ( 3574 )

基于影子栈的大模型系统防御技术

在传统系统安全中有一个典型的技术—影子栈(shadow stacks),它可以防御内存溢出攻击。那么类似于影子栈创建一个影子内存空间,如果可以正常栈中建立与目标LLM实例(LLMtarget)并行的影子LLM防御实例(LLMdefense),那理论上就是可以实现防御的

  • 0
  • 0
  • elwood1916
  • 发布于 2025-05-09 09:40:07
  • 阅读 ( 2694 )

vulnhuntr: LLM与SAST结合的AI产品漏洞自动化挖掘

通过结合静态代码分析和大语言模型(LLM)的方式来批量检测AI产品中的潜在漏洞

  • 2
  • 0
  • leeh
  • 发布于 2025-04-27 09:43:38
  • 阅读 ( 4472 )

多语言和多口音音频大型语言模型的越狱攻击

本文将深入探讨多语言音频模型在实际应用中面临的安全挑战,特别是音频越狱攻击的机制与影响。我们将学习攻击者如何利用模型的漏洞,通过精心设计的音频输入绕过安全机制,诱导模型生成不当内容。

  • 0
  • 0
  • Werqy3
  • 发布于 2025-04-28 09:00:02
  • 阅读 ( 3929 )

基于微调CLIP的多模态大模型安全防御

大模型在各种任务上都有广泛的应用,但是从其本质来说,扩大模型规模意味着需要增加训练数据的数量和多样性,这就需要从网络上抓取数十亿条数据,这个过程是无需人工监督的。 那么这也就会带来隐患,因为其中可能会有很多不适当的、有害的内容。 尽管现在模型的开发者普遍采用了过滤器和自动检查,但这种做法仍然会引入一些不适当的内容,最终导致模型产生不安全、有偏见或有毒的行为。

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-29 09:00:02
  • 阅读 ( 19134 )

基于嵌入扰动的大模型白盒越狱攻击

大模型(以下均用LLMs指代)发展迅速,但引发了大家对其潜在滥用的担忧。虽然模型开发者进行了大量安全对齐工作,以防止 LLMs 被用于有害活动,但这些努力可被多种攻击方法破解,典型的就是在社区里多篇文章中一直在强调的越狱攻击。这些攻击方法能找出安全对齐技术的漏洞,促使开发者及时修复,降低 LLMs 带来的安全风险

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-24 09:39:13
  • 阅读 ( 3524 )

都2025年了,这十大 LLM 安全工具你该关注了!

在人工智能飞速发展的今天,大型语言模型(LLMs)已经深入到我们生活的方方面面,从智能客服到内容创作,从医疗诊断到金融分析,它们的身影无处不在。然而,随着 LLMs 的广泛应用,其安全性问题也日益凸显。数据泄露、未经授权的访问、模型被恶意操纵……这些风险不仅威胁到企业的正常运营,还可能对用户隐私和社会稳定造成严重影响。今天,就让我们一起走进 LLM 安全的世界,看看那些在 2025年值得关注的安全工具,它们是如何为 LLMs 筑起坚固的安全防线的。

  • 3
  • 0
  • Halo咯咯
  • 发布于 2025-04-22 09:44:41
  • 阅读 ( 5258 )

同态加密来袭!Javelin为AI嵌入向量穿上“安全铠甲”

在数字化时代,人工智能(AI)和机器学习(ML)正深刻改变着我们的生活和工作方式。其中,向量嵌入(vector embeddings)作为现代算法的核心概念,正扮演着至关重要的角色。它将抽象数据(如文本、图像或分类标签)转化为数值向量,让机器学习模型能够处理和理解复杂的数据。然而,随着AI的广泛应用,数据安全和隐私保护问题也日益凸显。今天,我们就来聊聊如何用同态加密(Homomorphic Encryption, HE)技术来守护AI嵌入的安全。

  • 0
  • 0
  • Halo咯咯
  • 发布于 2025-04-18 09:41:05
  • 阅读 ( 21496 )

【补天白帽黑客城市沙龙-西安站】深度解析EDR和用特定手法将它绕过

演讲议题:深度解析EDR和用特定手法将它绕过

【补天白帽黑客城市沙龙-西安站】c3p0新链探索—深入挖掘数据库连接池的安全隐患

演讲议题:c3p0新链探索—深入挖掘数据库连接池的安全隐患

【补天白帽黑客城市沙龙-西安站】AIGC安全实践 –– AI Red Teaming

演讲议题:AIGC安全实践 –– AI Red Teaming

RAG架构大揭秘:三种方式让AI回答更精准,更懂你!

在人工智能飞速发展的今天,我们已经习惯了与各种智能系统打交道,从聊天机器人到智能搜索引擎,它们似乎无处不在。但你有没有想过,这些系统是如何真正理解我们的需求,并给出准确回答的呢?今天,就让我们一起深入探索一下前沿的RAG(Retrieval-Augmented Generation,检索增强生成)技术,看看它如何让AI变得更“聪明”。

  • 0
  • 0
  • Halo咯咯
  • 发布于 2025-04-16 09:47:06
  • 阅读 ( 3087 )

浅谈AI部署场景下的web漏洞

总结了一些部署过程中出现可能的漏洞点位,并且分析了对应的攻防思路

  • 2
  • 0
  • 7ech_N3rd
  • 发布于 2025-04-09 17:30:36
  • 阅读 ( 5314 )

Pydash set方法原型链污染漏洞分析:以Bottle框架环境变量泄露为例

NCTF遇到了一道pydash题目,似乎与SUCTF2025出的一道SU_blog都是这个知识点,遂想基于这道题分析一下链子。其实还可以结合idekctf那道题

  • 0
  • 0
  • 梦洛
  • 发布于 2025-04-02 09:46:42
  • 阅读 ( 3534 )

红队视角下AI大模型MCP技术的实现和应用

本文我将为你介绍`AI全自动操作`的流程,以及相关的技术原理和具体操作,同时我还将为你演示在漏洞利用环节的具体利用,希望你看文本文会对相关知识有更深的理解并且有所收获。

面向大模型的生成-利用式越狱攻击

目前做安全大模型或者说做大模型安全,基本都会有必要的两步,分别是对齐以及红队。 因为随着大模型在各种应用场景中的广泛使用,越来越多的人开始担忧这些模型可能被滥用,尤其是在传播有害或不道德内容方面。由于这些模型的开放性和广泛的使用群体,它们的潜在风险也变得更加显著。开放源码的语言模型尤其令人担忧,因为其代码和训练数据是公开的,任何人都可以访问、修改甚至恶意利用

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-07 10:00:18
  • 阅读 ( 25277 )

JAVA安全之Thymeleaf模板引擎注入从0到1及绕过思路

Thymeleaf是一个现代的Java模板引擎,主要用于Web应用程序。它旨在为用户提供一种简单而直观的方式来生成动态内容,尤其适合与Spring框架结合使用,Thymeleaf在服务器端处理模板并通过将数据模型填充到模板中并生成最终的HTML响应然后发送给浏览器,这些操作通常在Spring MVC项目中进行,Spring会将控制器返回的数据模型传递给Thymeleaf进行渲染

  • 2
  • 0
  • Al1ex
  • 发布于 2025-03-03 09:00:01
  • 阅读 ( 5372 )

Tomcat内存马之Upgrade构建调试分析

在现今攻防演练日趋常态化和网络安全检测设备检测技术越来越成熟的大环境下,传统的以文件形式驻留的后门文件极其容易检测查杀到,随之"内存马"技术开始登上历史的舞台。在JAVA安全知识体系中JAVA内存马也是必须要学习的一个关键板块,本篇文章主要介绍Tomcat-Upgrade型内存马

  • 0
  • 0
  • Al1ex
  • 发布于 2025-03-06 09:00:02
  • 阅读 ( 4235 )

.Net Core下的内存马

在审计了一套.net core的CMS后的扩展延伸

  • 0
  • 0
  • No2Cat
  • 发布于 2025-03-05 09:00:00
  • 阅读 ( 3570 )

vaadin反序列化链挖掘:tabby静态分析实践

在学习前面几条链子的基础上,结合静态分析工具在前面的基础上的一些小发现,包括vaadin的新利用方式以及对tabby的检测缺陷的总结

  • 1
  • 0
  • leeh
  • 发布于 2025-03-07 09:00:01
  • 阅读 ( 36307 )