【2024补天白帽黑客大会】JNDI新攻击面探索

演讲议题:JNDI新攻击面探索

2024 Blue Water CTF - The Great Escape

2024 Blue Water CTF - pwn关于qemu逃逸的,The Great Escape,主要是解压的数据可以自己构造

LLVM Pass-PWN:从理论到实践,从入门到精通

内容包含LLVM Pass类PWN详细解读

  • 1
  • 0
  • 麦当当
  • 发布于 2024-11-08 09:00:01
  • 阅读 ( 780 )

C++中的std::map的运用-ASIS CTF Quals 2024-whattodo

pwn中C++中的std::map的运用和逆向

  • 0
  • 0
  • 麦当当
  • 发布于 2024-10-09 09:00:00
  • 阅读 ( 679 )

威胁行为者利用GeoServer漏洞CVE-2024-36401

GeoServer是一个用Java编写的开源软件服务器,允许用户共享和编辑地理空间数据。它是开放地理空间联盟(OGC)Web Feature Service(WFS)和Web Coverage Service(WCS)标准的参考实现。

  • 0
  • 0
  • csallin
  • 发布于 2024-09-27 10:00:00
  • 阅读 ( 1184 )

对抗样本生成技术分析与实现2

在继续分析、实现其他经典对抗样本技术之前,我们先来看看对抗样本在网络空间安全其他领域的广泛应用。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-09-23 09:00:02
  • 阅读 ( 779 )

对抗样本生成技术分析与实现1

当我们提及人工智能,脑海中首先浮现的可能是自动驾驶汽车、智能家居、智能语音助手等前沿科技。然而,在这些光鲜亮丽的背后,隐藏着一个对人工智能系统构成严峻挑战的存在——对抗样本。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-09-14 10:00:01
  • 阅读 ( 1215 )

CorCTF 2024 Rev DigestMe

本题为一个CorCTF中的digestme题目的wp,这是一个自制的特殊VM逆向,整个逆向过程一波三折,最后还需要用到Cuda来完成最后的收尾,也还算有趣

  • 0
  • 0
  • l1nk
  • 发布于 2024-08-16 09:00:02
  • 阅读 ( 1490 )

越狱文生图大模型

本到图像模型面临的一个实际伦理问题是,它们可能生成敏感的、不适合工作的(NSFW)图像。NSFW是"Not Safe For Work"的缩写,意为"不适合在工作场所浏览

  • 0
  • 0
  • elwood1916
  • 发布于 2024-08-14 09:30:21
  • 阅读 ( 1763 )

大模型安全:平滑方法防御越狱攻击

我们在本次文章中学习一种平滑防御方法。 这个方法基于一个直觉,即,对抗性生成的提示对字符级变化非常敏感,所以在防御时可以首先随机扰动给定输入提示的多个副本,然后聚合相应的预测以检测对抗性输入。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-07-10 10:15:38
  • 阅读 ( 2120 )

新的 Diamorphine rootkit 变体在野外被发现

恶意软件中的代码重用现象非常普遍,尤其是对于那些开发难度大或难以用完全不同的代码实现的恶意软件组件。通过监控源代码和编译后的代码,我们能够有效地发现新型恶意软件并追踪野外环境中现存恶意软件的演变情况。

  • 1
  • 0
  • csallin
  • 发布于 2024-07-05 09:00:02
  • 阅读 ( 2026 )

排版图像越狱多模态大模型

OpenAI几年前的研究发现了“文字排版攻击”。通过利用模型对文本的鲁棒阅读能力,我们会发现即使是手写文本的照片也经常能欺骗模型。那么我们是否可以用这种技术去攻击如今的多模态大模型呢?

  • 1
  • 0
  • elwood1916
  • 发布于 2024-07-19 09:00:01
  • 阅读 ( 2171 )

基于安全解码防御越狱攻击

在这篇文章中,我们现在来分析并复现发表在2024年AI顶会ACL上的工作,其通过设计一种针对大型语言模型(LLMs)的安全意识解码策略,防御针对LLMs的越狱攻击。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-14 10:00:01
  • 阅读 ( 2154 )

利用few-shot方法越狱大模型

之前在社区发的几篇稿子都是利用一些优化方法来越狱大模型,今天我们来看看如何利用简单的few-shot示例来越狱大模型。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-24 10:00:00
  • 阅读 ( 2362 )

模糊测试大模型

这次我们要分析与复现的工作,是运用了软件安全中的模糊测试的思想,对大模型的输入做模糊测试,试图找到一种特定的输入,而这种可以让模型越狱。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-07 11:28:39
  • 阅读 ( 2470 )

威胁狩猎:DNS 隧道技术用于掩藏C2和VPN以及扩大用户跟踪和网络扫描的范围

威胁狩猎,本文介绍了域名系统 (DNS) 隧道在野外的新应用的案例研究

  • 0
  • 0
  • csallin
  • 发布于 2024-06-06 10:15:53
  • 阅读 ( 2309 )

CISCN 2024 Pwn VM writeup

国赛期间,做了一个很有意思的pwn题,顺便学了一下现在常见的pwn的板子题是什么样子的,这里做一下记录

  • 0
  • 0
  • l1nk
  • 发布于 2024-05-29 09:00:00
  • 阅读 ( 2960 )

基于自动化生成后缀越狱大模型

我们这篇文章将来分析并复现大模型越狱的经典工作,它从去年年底发出来到现在,已经被引用了300多次,这在AI安全领域很不常见,而且这个工作提出的攻击方法、测试方法都启发了很多后续的研究。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-04 10:00:02
  • 阅读 ( 2352 )

越狱大语言模型-通过自动化生成隐蔽提示

本文将会分析并实践如何自动化生成越狱提示,攻击大语言模型

  • 0
  • 0
  • elwood1916
  • 发布于 2024-05-31 10:00:02
  • 阅读 ( 2997 )

基于对抗样本越狱攻击多模态大模型

我们在这篇本章中来学习一下如何对多模态大语言模型进行越狱攻击。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-05-24 10:04:27
  • 阅读 ( 3244 )