getRequestURl导致的安全鉴权问题

getRequestURl导致的安全鉴权问题

  • 3
  • 1
  • echoa
  • 发布于 2024-09-18 10:14:37
  • 阅读 ( 16327 )

面向大模型的生成-利用式越狱攻击

目前做安全大模型或者说做大模型安全,基本都会有必要的两步,分别是对齐以及红队。 因为随着大模型在各种应用场景中的广泛使用,越来越多的人开始担忧这些模型可能被滥用,尤其是在传播有害或不道德内容方面。由于这些模型的开放性和广泛的使用群体,它们的潜在风险也变得更加显著。开放源码的语言模型尤其令人担忧,因为其代码和训练数据是公开的,任何人都可以访问、修改甚至恶意利用

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-07 10:00:18
  • 阅读 ( 14516 )

MCP Server 攻击面初探与思考

从安全角度来看,MCP 增加了更多 AI 安全实践机会,AI 安全再也不是议题中的 ”AI 赋能“,也不再是实验室层面才能进行的理论研究,未来也可能会像 SRC 挖掘那样百花齐放,鉴于 MCP 技术较新且笔者水平有限,有不足和错误之处请师傅们批评斧正

  • 2
  • 3
  • 385
  • 发布于 2025-04-10 10:38:27
  • 阅读 ( 14265 )

同态加密来袭!Javelin为AI嵌入向量穿上“安全铠甲”

在数字化时代,人工智能(AI)和机器学习(ML)正深刻改变着我们的生活和工作方式。其中,向量嵌入(vector embeddings)作为现代算法的核心概念,正扮演着至关重要的角色。它将抽象数据(如文本、图像或分类标签)转化为数值向量,让机器学习模型能够处理和理解复杂的数据。然而,随着AI的广泛应用,数据安全和隐私保护问题也日益凸显。今天,我们就来聊聊如何用同态加密(Homomorphic Encryption, HE)技术来守护AI嵌入的安全。

  • 0
  • 0
  • Halo咯咯
  • 发布于 2025-04-18 09:41:05
  • 阅读 ( 10117 )

基于微调CLIP的多模态大模型安全防御

大模型在各种任务上都有广泛的应用,但是从其本质来说,扩大模型规模意味着需要增加训练数据的数量和多样性,这就需要从网络上抓取数十亿条数据,这个过程是无需人工监督的。 那么这也就会带来隐患,因为其中可能会有很多不适当的、有害的内容。 尽管现在模型的开发者普遍采用了过滤器和自动检查,但这种做法仍然会引入一些不适当的内容,最终导致模型产生不安全、有偏见或有毒的行为。

  • 0
  • 0
  • elwood1916
  • 发布于 2025-04-29 09:00:02
  • 阅读 ( 5895 )

若依(RuoYi)框架漏洞战争手册

当你在用若依时,黑客已经在用Shiro默认密钥弹你的Shell;当你还在纠结分页查询,攻击者已通过SQL注入接管数据库;而你以为安全的定时任务,不过是他们拿捏服务器的玩具。这份手册,带你用渗透的视角,解剖若依的每一处致命弱点——因为真正的安全,始于知晓如何毁灭它。

  • 4
  • 3
  • Locks_
  • 发布于 2025-05-07 09:00:00
  • 阅读 ( 5764 )
站长统计