第五届“湾区杯”CTF Final - Blind writeup

本题描述了一个现实场景常见的模型:即无法采用多模态模型时,先使用ASR模型将语音转换为文字,接着调用大模型进行回答。

  • 0
  • 1
  • Cain
  • 发布于 2025-12-31 10:00:01
  • 阅读 ( 364 )

第五届“湾区杯”CTF Final - 耄耋 writeup

本题给出了数千张小猫的图片,数据分为两类:AI生成和人工拍摄,期望选手对数据完成区分,即完成人工智能生成图片伪造检测技术。

  • 0
  • 0
  • Cain
  • 发布于 2025-12-31 09:00:02
  • 阅读 ( 377 )

【2025补天白帽黑客盛典】当AI成为自己的红队:自动化越狱样本构造方法

当大模型深度融入社会运转,其安全边界正面临前所未有的挑战越狱攻击通过精心构造的提示词,可绕过安全限制诱导模型生成有害内容。传统人工构造样本效率低下,而让AI成为自身的红队,正是破解这一困境的创新路径。本议题系统阐述四层自动化越狱样本构造体系:从基础规则化批量生成,到 AI自主创新,再到学术前沿复现与动态定制化生成。

【2025补天白帽黑客盛典】木马藏在权重里:大模型攻击链的越狱、投毒、对抗样本与 ROP 链的连环戏法

本议题提出「权重寄生攻击链」核心框架以大模型权重为寄生载体,通过"入口突破一威胁潜伏一伪装掩护一终极爆发"的闭环传导,将文本越狱、模型投毒、对抗样本、OllamaROP链四类攻击串联的完整威胁链路,打破单一攻击场景的孤立认知,揭示大模型从上层语义到底层系统的全维度安全风险。

【2025补天白帽黑客盛典】I flip WASM bits

我们针对Blackhat ASIA 2023议题:Attacking WebAssembly Compiler of WebKit使用的方法进行了改进,对Firefox、Chrome浏览器WASM模块进行fuzz并发现了多个漏洞。我们针对其中Firefox浏览器一个典型的WASM漏洞进行了详细分析,包含Firefox的一些机制和针对WASM memory的优化,揭示了漏洞产生的本质原因:新的WASM提案和功能的实现导致一些边界检查的绕过,实现新功能时旧功能的代码修改不完全导致新漏洞的出现。

【2025补天白帽黑客盛典】大模型时代的移动端攻防:基于LLM的App漏洞挖掘

本议题将分享一种基于LLM Agent的App漏洞挖掘。通过引入MCP方式,结合精细化的Prompt工程与工作流编排,将复杂的挖洞过程拆解为可控的原子任务。将展示如何使用LLM强大的代码审计能力,实现对App隐蔽漏洞的高效、精准捕获。

第三届“天网杯” AI赛道 writeup合集

  • 1
  • 1
  • Cain
  • 发布于 2025-12-30 09:00:01
  • 阅读 ( 510 )

AI安全之间接提示词注入实现RCE(CVE-2025-53773绕过分析)

AI安全之间接提示词注入实现RCE(CVE-2025-53773绕过分析)

  • 0
  • 1
  • mhxiang
  • 发布于 2025-12-29 09:45:04
  • 阅读 ( 832 )

通过微调与拒绝向量消融实现大模型越狱的实践

AI突破限制的多种手段 前言:目前看到过很多越狱AI的手法,绝大多数都是使用提示词注入来对互联网上现有AI进行越狱,本文章中介绍另外两个方法进行越狱。

  • 5
  • 8
  • 画老师
  • 发布于 2025-12-09 09:00:01
  • 阅读 ( 1887 )

黑灰产从绕过到自建“无约束”的AI模型过程

市面上主流的大模型服务,都已经建立一套相对成熟的安全架构,这套架构通常可以概括为三层过滤防御体系 1. 输入检测:在用户请求进入模型之前,通过黑白词库、正则表达式和语义分析,拦截掉那些意图明显的恶意问题。 2. 内生安全:模型本身经过安全对齐,通过指令微调和人类反馈强化学习(RLHF),让模型从价值观层面理解并拒绝执行有害指令。 3. 输出检测:在模型生成响应后,再次进行扫描,确保内容合规。。但攻击者依然在生成恶意内容、钓鱼邮件,甚至大规模恶意软件。

  • 3
  • 1
  • 洺熙
  • 发布于 2025-11-28 09:00:02
  • 阅读 ( 2085 )

一文了解图像的隐形噪声如何欺骗 AI

对抗图像是一种精心设计的输入数据,通过对原始图像进行细微修改,使机器学习模型(尤其是深度神经网络)产生错误的分类输出。

  • 2
  • 2
  • Wh1tecell
  • 发布于 2025-10-24 09:00:02
  • 阅读 ( 2375 )

DeepTective: 基于混合图神经网络的自动化漏洞挖掘框架

PHP在Web应用中的普遍漏洞以及开发者、安全公司和白帽黑客为解决这些问题所做的努力。传统的静态、流和污点分析方法在性能上存在局限性,数据挖掘方法常受到误报/漏报的困扰,而近期基于深度学习的模型(主要是基于LSTM)并不天生适合程序语义等图结构数据。DeepTective是一种基于深度学习的PHP源代码漏洞检测方法,其核心创新在于采用混合架构,结合门控循环单元(GRU)处理代码令牌的线性序列(语法信息),以及图卷积网络(GCN)处理控制流图(CFG)(语义和上下文信息)

  • 0
  • 0
  • Bear001
  • 发布于 2025-10-23 09:47:12
  • 阅读 ( 2117 )

揭秘AI自动化渗透背后的迷雾

今年是Agent的主旋律,随着近期Blackhat DEFCON 以及各大赛事 会议的开展,AI与安全的话题不断碰撞,在这其中,AI自动化漏洞挖掘/渗透?AI是否能代替人类安全工作人员?或安全怎么才能不被AI代替? 一直是热门的话题 本文将以AI赋能安全方面,至少在明面上来说,目前产品工程与经营都比较完善的XBOW来进行分析 一同观看目前AI for安全的前沿在那一步?

  • 3
  • 1
  • 洺熙
  • 发布于 2025-10-22 09:46:28
  • 阅读 ( 3989 )

RealVul: 基于大语言模型训练微调的PHP漏洞检测框架深度解析

LLM赋能安全领域前沿研究“甚少”,在研究该领域的前沿论文科研时发现了一个很开创性的漏洞检测框架,本文的核心目标是设计一个针对PHP漏洞检测的LLM框架RealVul,以弥补现有研究的不足。具体而言,关注如何从真实项目中定位漏洞触发点并提取有效样本、如何通过代码预处理突出漏洞特征、以及如何利用半合成数据扩充稀缺样本

  • 3
  • 0
  • Bear001
  • 发布于 2025-10-16 09:00:01
  • 阅读 ( 2942 )

MCP安全协议:从攻击手法到最佳实践,全景解析

在大模型和智能应用快速发展的今天,Model Context Protocol(MCP)逐渐成为连接模型与外部服务的重要标准。它让开发者可以更方便地调用第三方 API,为模型提供更多上下文能力。但与此同时,安...

  • 1
  • 0
  • Halo咯咯
  • 发布于 2025-10-11 09:57:18
  • 阅读 ( 3434 )

提示词注入实战—通过在线靶场看提示词注入手法

本文通过一个在线靶场,希望帮助大家更好的理解提示词注入的相关手法。这个靶场拿来练习也是很不错的,尤其是现在的AI靶场很少,像经常使用的那些又修复的很快。

大模型投毒-训练、微调、供应链与RAG解析

人工智能系统的安全范式正从外部防御转向保障其内在的认知完整性。攻击通过污染训练数据、在微调阶段植入后门、利用供应链漏洞以及在推理时注入恶意上下文,旨在从根本上破坏模型的可靠性与安全性

  • 1
  • 1
  • 洺熙
  • 发布于 2025-09-04 09:00:02
  • 阅读 ( 4623 )

大模型安全之数据投毒

数据投毒是针对模型训练阶段的攻击,通过向训练数据注入有害样本或篡改样本标签/特征,改变模型学习到的映射,从而在部署后降低模型性能或触发预设行为

  • 0
  • 0
  • 洺熙
  • 发布于 2025-08-21 10:02:08
  • 阅读 ( 4963 )

LLM如何安全对齐(基础篇)

AI对齐旨在确保AI系统,其能力与行为同人类的价值观,意图及伦理规范保持一致 本文将系统性梳理AI对齐的基础原则,剖析理论与算法的挑战 1.模型固有的逆向对齐趋势 2.人类偏好非传递性导致的收敛困境 3.安全保障的系统性复杂性

  • 0
  • 0
  • 洺熙
  • 发布于 2025-08-21 09:00:03
  • 阅读 ( 4224 )

基于AI的智能目录扫描与敏感信息收集工具开发

在某互联网大厂工作时做了一些AI相关的安全赋能工作,学习了MCP开发与安全赋能的技术知识,结合个人能力与网上学习的技术文章知识,开发了一款"MCP-Finder"创新的网络安全扫描工具,将传统目录扫描技术与现代AI大模型分析能力相结合,通过MCP协议中的streamable-http进行接入,为安全研究人员提供了更智能、更高效的漏洞发现解决方案(

  • 5
  • 4
  • Bear001
  • 发布于 2025-08-14 10:00:02
  • 阅读 ( 6839 )