网络空间指纹是对涉案网络资产所表现的数字痕迹和服务特征的收集和分析,类似于传统刑事科学的指纹概念,每个网络犯罪活动站点都会在网络空间留下独特的特征。本文将重点介绍网络空间指纹的形成和采集方法,以及其在网络犯罪研判中的应用实践。同时,我们将通过实际案例分析,验证网络空间指纹在研判网络犯罪行为中的可行性和有效性。
ai本质仍然被看作是一种“幻觉智能,而人应该更像人 而非像马哲里面的 被物化和异化的概念,人应该更像人 才不会被机器所淘汰
在今年的DiceCTF中,做到了一个很特别的逆向题,比起以往的执行流混淆,这个题目是一个数据流混淆的题目。这里分享一下题目的解题过程
多模态大模型,比如像 GPT-4v、Gemini以及一些开源的版本,例如 LLaVA、MiniGPT-4和 InstructBLIP等,它们将视觉能力集成到大型语言模型(LLMs)中。本文会分析针对此类模型的投毒攻击
我们在这篇本章中来学习一下如何对多模态大语言模型进行越狱攻击。
本文将会分析并实践如何自动化生成越狱提示,攻击大语言模型
国赛期间,做了一个很有意思的pwn题,顺便学了一下现在常见的pwn的板子题是什么样子的,这里做一下记录
这次我们要分析与复现的工作,是运用了软件安全中的模糊测试的思想,对大模型的输入做模糊测试,试图找到一种特定的输入,而这种可以让模型越狱。
内容包含LLVM Pass类PWN详细解读
之前在社区发的几篇稿子都是利用一些优化方法来越狱大模型,今天我们来看看如何利用简单的few-shot示例来越狱大模型。
我们这篇文章将来分析并复现大模型越狱的经典工作,它从去年年底发出来到现在,已经被引用了300多次,这在AI安全领域很不常见,而且这个工作提出的攻击方法、测试方法都启发了很多后续的研究。
威胁狩猎,本文介绍了域名系统 (DNS) 隧道在野外的新应用的案例研究
在这篇文章中,我们现在来分析并复现发表在2024年AI顶会ACL上的工作,其通过设计一种针对大型语言模型(LLMs)的安全意识解码策略,防御针对LLMs的越狱攻击。
OpenAI几年前的研究发现了“文字排版攻击”。通过利用模型对文本的鲁棒阅读能力,我们会发现即使是手写文本的照片也经常能欺骗模型。那么我们是否可以用这种技术去攻击如今的多模态大模型呢?
我们在本次文章中学习一种平滑防御方法。 这个方法基于一个直觉,即,对抗性生成的提示对字符级变化非常敏感,所以在防御时可以首先随机扰动给定输入提示的多个副本,然后聚合相应的预测以检测对抗性输入。
之前给xctf final出了一题pwn,这里分享一下解题思路。
恶意软件中的代码重用现象非常普遍,尤其是对于那些开发难度大或难以用完全不同的代码实现的恶意软件组件。通过监控源代码和编译后的代码,我们能够有效地发现新型恶意软件并追踪野外环境中现存恶意软件的演变情况。
本到图像模型面临的一个实际伦理问题是,它们可能生成敏感的、不适合工作的(NSFW)图像。NSFW是"Not Safe For Work"的缩写,意为"不适合在工作场所浏览
我们的心愿,就是把顺丰使用威胁情报的经验掰开了、揉碎了、明明白白写出来,希望对屏幕前每一个你都能有所帮助,哪怕只有一点点。
演讲议题:主动防护视角下的API安全实践