安全运营最近很火,很多安全峰会也喜欢讲这方面的东西,在我的角度来看,很多企业在招安全运营岗位,大多还处于从“0”到“1”的一个基本安全工作做差不多的阶段。今天就来聊聊,安全运营这个岗位到底是干什么的。
MySQL利用ODBC转义({})注入手法分析
本文提出了检测tomcat常见内存马的一种方式。
spring actuator`相关的漏洞利用链公布不少了,不过都有些条件限制。我抽时间看了看 spring boot 的一些常见 properties 配置项,希望能发现一些触发条件没那么苛刻的漏洞利用方法,也发现了一些新的 RCE 方法
serialVesionUid不一致导致反序列化失败也算是Java反序列化漏洞利用比较常见的问题了。查了下资料,发现了各种各样的方法,但没有找到一种适合所有gadget的通用解决方案,为此我花了一些时间,算是找到了自己心中比较完美的解决方案:自定义ClassLoader。目前已经将其集成到ysoserial中,可完美解决各类gadget serialVesionUID不一致问题。
亿邮电子邮件系统远程命令执行漏洞分析与复现
和信下一代云桌面文件上传漏洞分析
大家好, 我是来自银基Tiger-Team的Kevin2600. 今天想分享在学习EMFI错误注入攻击中的些许心得. 本系列将分为上下两篇. 在上篇中我们将了解电磁注入基础原理以及工具的使用. 而下篇将分享如何使用电磁注入方式破解真实目标.
记一次从代码审计到拿下内网edr的过程
最近在整理自己代码审计的文档时,发现自己以前审了不少小cms的1day, 现在的话基本没啥用,所以打算慢慢发出来,分享一下自己在学习各种语言审计时的一些小思路, 希望能够帮助和我一样的萌新能够领略代码审计的魅力。
从web弱口令到的获取集权类设备权限的过程
CVE-2020-14756 漏洞利用以及分析
在传统系统安全中有一个典型的技术—影子栈(shadow stacks),它可以防御内存溢出攻击。那么类似于影子栈创建一个影子内存空间,如果可以正常栈中建立与目标LLM实例(LLMtarget)并行的影子LLM防御实例(LLMdefense),那理论上就是可以实现防御的
通过结合静态代码分析和大语言模型(LLM)的方式来批量检测AI产品中的潜在漏洞
本文将深入探讨多语言音频模型在实际应用中面临的安全挑战,特别是音频越狱攻击的机制与影响。我们将学习攻击者如何利用模型的漏洞,通过精心设计的音频输入绕过安全机制,诱导模型生成不当内容。
大模型在各种任务上都有广泛的应用,但是从其本质来说,扩大模型规模意味着需要增加训练数据的数量和多样性,这就需要从网络上抓取数十亿条数据,这个过程是无需人工监督的。 那么这也就会带来隐患,因为其中可能会有很多不适当的、有害的内容。 尽管现在模型的开发者普遍采用了过滤器和自动检查,但这种做法仍然会引入一些不适当的内容,最终导致模型产生不安全、有偏见或有毒的行为。
大模型(以下均用LLMs指代)发展迅速,但引发了大家对其潜在滥用的担忧。虽然模型开发者进行了大量安全对齐工作,以防止 LLMs 被用于有害活动,但这些努力可被多种攻击方法破解,典型的就是在社区里多篇文章中一直在强调的越狱攻击。这些攻击方法能找出安全对齐技术的漏洞,促使开发者及时修复,降低 LLMs 带来的安全风险
在人工智能飞速发展的今天,大型语言模型(LLMs)已经深入到我们生活的方方面面,从智能客服到内容创作,从医疗诊断到金融分析,它们的身影无处不在。然而,随着 LLMs 的广泛应用,其安全性问题也日益凸显。数据泄露、未经授权的访问、模型被恶意操纵……这些风险不仅威胁到企业的正常运营,还可能对用户隐私和社会稳定造成严重影响。今天,就让我们一起走进 LLM 安全的世界,看看那些在 2025年值得关注的安全工具,它们是如何为 LLMs 筑起坚固的安全防线的。
在数字化时代,人工智能(AI)和机器学习(ML)正深刻改变着我们的生活和工作方式。其中,向量嵌入(vector embeddings)作为现代算法的核心概念,正扮演着至关重要的角色。它将抽象数据(如文本、图像或分类标签)转化为数值向量,让机器学习模型能够处理和理解复杂的数据。然而,随着AI的广泛应用,数据安全和隐私保护问题也日益凸显。今天,我们就来聊聊如何用同态加密(Homomorphic Encryption, HE)技术来守护AI嵌入的安全。
演讲议题:深度解析EDR和用特定手法将它绕过