Docker容器逃逸

作者:凝 前言: 我认为docker容器逃逸也算是提权的一种手法,要更好的理解容器逃逸的手法,应该知道从本质上看容器内的进程只是一个受限的普通 Linux 进程,而容器逃逸的过程我们完全可以将其理解...

  • 5
  • 3
  • ning凝
  • 发布于 2023-12-22 10:00:01
  • 阅读 ( 6241 )

网络空间指纹:新型网络犯罪研判的关键路径

网络空间指纹是对涉案网络资产所表现的数字痕迹和服务特征的收集和分析,类似于传统刑事科学的指纹概念,每个网络犯罪活动站点都会在网络空间留下独特的特征。本文将重点介绍网络空间指纹的形成和采集方法,以及其在网络犯罪研判中的应用实践。同时,我们将通过实际案例分析,验证网络空间指纹在研判网络犯罪行为中的可行性和有效性。

  • 1
  • 3
  • 风起
  • 发布于 2024-03-22 09:33:40
  • 阅读 ( 5374 )

汽车CAN总线-02 攻击

“ 免责声明:本文涉及到的所有技术仅用来学习交流,严禁用于非法用途,未经授权请勿非法渗透。否则产生的一切后果自行承担!一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉,谢谢!” 本专题文章将分为三部分: 介绍、攻击、演示,本文为第二部分汽车CAN总线攻击 。

  • 0
  • 1
  • zh1chu
  • 发布于 2024-01-05 10:00:02
  • 阅读 ( 5355 )

汽车CAN总线-03 测试方法演示

“ 免责声明:本文涉及到的所有技术仅用来学习交流,严禁用于非法用途,未经授权请勿非法渗透。否则产生的一切后果自行承担!一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉,谢谢!” 本专题文章将分为三部分: 介绍、攻击、演示,本文为终章汽车CAN总线测试方法演示 。

  • 0
  • 1
  • zh1chu
  • 发布于 2024-01-08 09:00:02
  • 阅读 ( 5227 )

汽车CAN总线-01 介绍

免责声明:本文涉及到的所有技术仅用来学习交流,严禁用于非法用途,未经授权请勿非法渗透。否则产生的一切后果自行承担!一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉,谢谢! 本专题文章将分为三部分:介绍、攻击、演示,本文为第一部分汽车CAN总线介绍 。

  • 0
  • 1
  • zh1chu
  • 发布于 2024-01-05 09:00:00
  • 阅读 ( 5124 )

AI安全:生成式AI原理与应用分析

ai本质仍然被看作是一种“幻觉智能,而人应该更像人 而非像马哲里面的 被物化和异化的概念,人应该更像人 才不会被机器所淘汰

  • 1
  • 1
  • 洺熙
  • 发布于 2024-03-27 09:33:23
  • 阅读 ( 5059 )

全国职业技能赛电子取证淘汰赛解题思路

2023全国网络安全行业职业技能大赛电子取证分析师(淘汰赛B卷)writeup

  • 1
  • 1
  • GLRpiz
  • 发布于 2024-02-29 10:00:00
  • 阅读 ( 4730 )

初探云原生安全之EKS CLUSTER GAMES

AWS EKS(Elastic Kubernetes Service)是一种托管的Kubernetes服务,它简化了在AWS云环境中运行Kubernetes的过程。在EKS中,Pod是Kubernetes集群的基本执行单元。一个Pod可以包含一个或多个容器(例如Docker容器),这些容器通常紧密耦合并共享资源。

  • 1
  • 0
  • payioad
  • 发布于 2024-01-04 10:00:01
  • 阅读 ( 4611 )

DiceCTF-Rev Scrambled-up

在今年的DiceCTF中,做到了一个很特别的逆向题,比起以往的执行流混淆,这个题目是一个数据流混淆的题目。这里分享一下题目的解题过程

  • 0
  • 0
  • l1nk
  • 发布于 2024-03-01 09:00:01
  • 阅读 ( 3767 )

针对多模态大模型的投毒攻击

多模态大模型,比如像 GPT-4v、Gemini以及一些开源的版本,例如 LLaVA、MiniGPT-4和 InstructBLIP等,它们将视觉能力集成到大型语言模型(LLMs)中。本文会分析针对此类模型的投毒攻击

  • 0
  • 0
  • elwood1916
  • 发布于 2024-05-16 10:44:16
  • 阅读 ( 3336 )

基于对抗样本越狱攻击多模态大模型

我们在这篇本章中来学习一下如何对多模态大语言模型进行越狱攻击。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-05-24 10:04:27
  • 阅读 ( 3247 )

越狱大语言模型-通过自动化生成隐蔽提示

本文将会分析并实践如何自动化生成越狱提示,攻击大语言模型

  • 0
  • 0
  • elwood1916
  • 发布于 2024-05-31 10:00:02
  • 阅读 ( 2999 )

CISCN 2024 Pwn VM writeup

国赛期间,做了一个很有意思的pwn题,顺便学了一下现在常见的pwn的板子题是什么样子的,这里做一下记录

  • 0
  • 0
  • l1nk
  • 发布于 2024-05-29 09:00:00
  • 阅读 ( 2962 )

模糊测试大模型

这次我们要分析与复现的工作,是运用了软件安全中的模糊测试的思想,对大模型的输入做模糊测试,试图找到一种特定的输入,而这种可以让模型越狱。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-07 11:28:39
  • 阅读 ( 2478 )

利用few-shot方法越狱大模型

之前在社区发的几篇稿子都是利用一些优化方法来越狱大模型,今天我们来看看如何利用简单的few-shot示例来越狱大模型。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-24 10:00:00
  • 阅读 ( 2364 )

基于自动化生成后缀越狱大模型

我们这篇文章将来分析并复现大模型越狱的经典工作,它从去年年底发出来到现在,已经被引用了300多次,这在AI安全领域很不常见,而且这个工作提出的攻击方法、测试方法都启发了很多后续的研究。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-04 10:00:02
  • 阅读 ( 2355 )

威胁狩猎:DNS 隧道技术用于掩藏C2和VPN以及扩大用户跟踪和网络扫描的范围

威胁狩猎,本文介绍了域名系统 (DNS) 隧道在野外的新应用的案例研究

  • 0
  • 0
  • csallin
  • 发布于 2024-06-06 10:15:53
  • 阅读 ( 2312 )

排版图像越狱多模态大模型

OpenAI几年前的研究发现了“文字排版攻击”。通过利用模型对文本的鲁棒阅读能力,我们会发现即使是手写文本的照片也经常能欺骗模型。那么我们是否可以用这种技术去攻击如今的多模态大模型呢?

  • 1
  • 0
  • elwood1916
  • 发布于 2024-07-19 09:00:01
  • 阅读 ( 2172 )

基于安全解码防御越狱攻击

在这篇文章中,我们现在来分析并复现发表在2024年AI顶会ACL上的工作,其通过设计一种针对大型语言模型(LLMs)的安全意识解码策略,防御针对LLMs的越狱攻击。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-06-14 10:00:01
  • 阅读 ( 2156 )

大模型安全:平滑方法防御越狱攻击

我们在本次文章中学习一种平滑防御方法。 这个方法基于一个直觉,即,对抗性生成的提示对字符级变化非常敏感,所以在防御时可以首先随机扰动给定输入提示的多个副本,然后聚合相应的预测以检测对抗性输入。

  • 0
  • 0
  • elwood1916
  • 发布于 2024-07-10 10:15:38
  • 阅读 ( 2121 )