当我们提及人工智能,脑海中首先浮现的可能是自动驾驶汽车、智能家居、智能语音助手等前沿科技。然而,在这些光鲜亮丽的背后,隐藏着一个对人工智能系统构成严峻挑战的存在——对抗样本。
HVV 遇到了邮件钓鱼,有个样本挺有趣,自己又没分析过样本,于是便想尝试分析一下,并记录下来,同时学习一下红队大佬们的思路,大佬勿喷,讲的比较哆嗦。
Web-pwn的栈溢出和堆机制详细入门
2024 SEKAI-CTF(nolibc speedpwn life_simulator_2)
一年一度的大型活动还在进行中,想必在这个过程中不管是BT还是甲方安全人员都会遇到各种各样的钓鱼攻击。本文的初衷就是助力各位BT相关人员分析研判各种钓鱼攻击,让钓鱼攻击无所遁形。
我们的心愿,就是把顺丰使用威胁情报的经验掰开了、揉碎了、明明白白写出来,希望对屏幕前每一个你都能有所帮助,哪怕只有一点点。
挑战EDR:不依赖驱动的防护瘫痪方法
一直对虚拟化技术比较感兴趣,前段时间尝试了qemu逃逸和vmware逃逸的例题,这次2024corctf发现一道KVM嵌套虚拟化逃逸的题目,来了兴趣,但个人接触CTF时间还不到1年,思路方面还是受阻了很多,当时就把相关KVM和VMX源码大致逻辑看了看,赛后找shellphish团队要了一份wp来学习,在此写下复现记录
本题为一个CorCTF中的digestme题目的wp,这是一个自制的特殊VM逆向,整个逆向过程一波三折,最后还需要用到Cuda来完成最后的收尾,也还算有趣
本到图像模型面临的一个实际伦理问题是,它们可能生成敏感的、不适合工作的(NSFW)图像。NSFW是"Not Safe For Work"的缩写,意为"不适合在工作场所浏览
OpenAI几年前的研究发现了“文字排版攻击”。通过利用模型对文本的鲁棒阅读能力,我们会发现即使是手写文本的照片也经常能欺骗模型。那么我们是否可以用这种技术去攻击如今的多模态大模型呢?
之前给xctf final出了一题pwn,这里分享一下解题思路。
我们在本次文章中学习一种平滑防御方法。 这个方法基于一个直觉,即,对抗性生成的提示对字符级变化非常敏感,所以在防御时可以首先随机扰动给定输入提示的多个副本,然后聚合相应的预测以检测对抗性输入。
恶意软件中的代码重用现象非常普遍,尤其是对于那些开发难度大或难以用完全不同的代码实现的恶意软件组件。通过监控源代码和编译后的代码,我们能够有效地发现新型恶意软件并追踪野外环境中现存恶意软件的演变情况。
之前在社区发的几篇稿子都是利用一些优化方法来越狱大模型,今天我们来看看如何利用简单的few-shot示例来越狱大模型。
在这篇文章中,我们现在来分析并复现发表在2024年AI顶会ACL上的工作,其通过设计一种针对大型语言模型(LLMs)的安全意识解码策略,防御针对LLMs的越狱攻击。
这次我们要分析与复现的工作,是运用了软件安全中的模糊测试的思想,对大模型的输入做模糊测试,试图找到一种特定的输入,而这种可以让模型越狱。
威胁狩猎,本文介绍了域名系统 (DNS) 隧道在野外的新应用的案例研究
我们这篇文章将来分析并复现大模型越狱的经典工作,它从去年年底发出来到现在,已经被引用了300多次,这在AI安全领域很不常见,而且这个工作提出的攻击方法、测试方法都启发了很多后续的研究。
本文将会分析并实践如何自动化生成越狱提示,攻击大语言模型