和信下一代云桌面文件上传漏洞分析
最近在整理自己代码审计的文档时,发现自己以前审了不少小cms的1day, 现在的话基本没啥用,所以打算慢慢发出来,分享一下自己在学习各种语言审计时的一些小思路, 希望能够帮助和我一样的萌新能够领略代码审计的魅力。
CVE-2020-14756 漏洞利用以及分析
大模型在各种任务上都有广泛的应用,但是从其本质来说,扩大模型规模意味着需要增加训练数据的数量和多样性,这就需要从网络上抓取数十亿条数据,这个过程是无需人工监督的。 那么这也就会带来隐患,因为其中可能会有很多不适当的、有害的内容。 尽管现在模型的开发者普遍采用了过滤器和自动检查,但这种做法仍然会引入一些不适当的内容,最终导致模型产生不安全、有偏见或有毒的行为。
在数字化时代,人工智能(AI)和机器学习(ML)正深刻改变着我们的生活和工作方式。其中,向量嵌入(vector embeddings)作为现代算法的核心概念,正扮演着至关重要的角色。它将抽象数据(如文本、图像或分类标签)转化为数值向量,让机器学习模型能够处理和理解复杂的数据。然而,随着AI的广泛应用,数据安全和隐私保护问题也日益凸显。今天,我们就来聊聊如何用同态加密(Homomorphic Encryption, HE)技术来守护AI嵌入的安全。
目前做安全大模型或者说做大模型安全,基本都会有必要的两步,分别是对齐以及红队。 因为随着大模型在各种应用场景中的广泛使用,越来越多的人开始担忧这些模型可能被滥用,尤其是在传播有害或不道德内容方面。由于这些模型的开放性和广泛的使用群体,它们的潜在风险也变得更加显著。开放源码的语言模型尤其令人担忧,因为其代码和训练数据是公开的,任何人都可以访问、修改甚至恶意利用
在学习前面几条链子的基础上,结合静态分析工具在前面的基础上的一些小发现,包括vaadin的新利用方式以及对tabby的检测缺陷的总结
在一次渗透中我们遇到了雄迈(XiongMai)的uc-httpd,这是一款被全球无数网络摄像机使用的轻量级Web服务器。根据Shodan的数据,大约有7万个该软件的实例在互联网上公开暴露。尽管这款软件存在严...
对于动态代理,只记得 cc1 接触过一次,然后就没有怎么碰到过了,而且动态代理似乎利用面还是比较广的,许多关键时刻都会使用到,这里正好来重新学习学习,还记得入门 java 的时候动态代理就学了半天,感觉确实很抽象
某CRM的代码审计之旅
`os.path.join` 是 Python 标准库 `os.path` 模块中的一个函数,用于将多个路径组件组合成一个路径字符串,并根据操作系统的路径规则处理路径分隔符。它是编写跨平台文件路径处理代码的关键工具。但如果开发者对该函数了解不完全,且参数用户可控时,就会造成一些安全问题
D-Tale 是 Flask 后端和 React 前端的组合,为您提供了一种查看和分析 Pandas 数据结构的简便方法,允许用户方便地浏览和分析数据,而无需编写复杂的代码。Dtale 可以在 Jupyter Notebook 中或者独立的网页中运行,使得分析过程更加直观和高效。该系统存在身份验证绕过和RCE漏洞
大型语言模型(LLMs)正日益被整合到代理框架中,使其能够通过工具执行特定操作。这些代理不仅可以处理复杂的任务,还能够与外部系统交互,例如自动化流程和设备控制等。随着技术的进步,LLM驱动的代理被部署到越来越多的环境中,这些环境通常允许访问用户的个人数据,并能够在现实世界中直接执行操作,从而大幅提升了应用的广度和深度。
在某次测试时候 碰见了一个叫bottle的框架 于是探寻了下在实际中可应用的注入内存马的方法
安全对齐(Safety Alignment)在人工智能(AI)和大规模语言模型(LLM)的研究中,指的是确保这些模型的行为与预期的社会伦理和安全标准相一致,从而防止模型产生有害、偏见或不当的输出。这一概念源自对AI系统潜在滥用和误用的担忧,尤其是在这些系统被应用于开放、未经监管的环境时
最近奇安信办的datacon有个AI安全赛道,其中的挑战之一就是与越狱相关的,不同的地方在于它关注的是多轮越狱
记录一下一个之前没有正经审计过项目,基本没接触过java的新手如何根据有限的漏洞信息,尝试用不同的思路进行复现审计
前几天在逛huntr的时候,发现一个很有意思的漏洞,他是通过反序列化从而去污染类和属性导致的rce,在作者的描述中大致说明的漏洞的原理,该漏洞是通过绕过`Deepdiff `的反序列化限制,包括绕过魔术方法和白名单绕过,通过魔术方法可以访问其他模块、类和实例,并使用这种任意属性写入,最终导致rce。
某订货系统文件上传漏洞分析
MyBB 是一款免费的开源论坛软件,使用php开发,支持用户自定义模板。Mybb<1.8.36的版本中,存在模板注入漏洞。