暂无介绍
对protswigger的第三个大模型prompt注入靶场进行实战记录
随着大模型智能体的发展,关于大模型工具调用的方式也在进行迭代,今年讨论最多的应该就是MCP了,新的场景就会带来新的安全风险,本文将对MCP安全场景进行探究。
去年的时候,外网上出现了一个名为Freysa AI。它旨在通过举办大模型安全赏金竞赛游戏,来吸引全球爱好者一起探索:人类的智慧能否找到一种方法说服AGI违背其核心指令?这里对解题思路进行一波学习
从安全角度来看,MCP 增加了更多 AI 安全实践机会,AI 安全再也不是议题中的 ”AI 赋能“,也不再是实验室层面才能进行的理论研究,未来也可能会像 SRC 挖掘那样百花齐放,鉴于 MCP 技术较新且笔者水平有限,有不足和错误之处请师傅们批评斧正
0 回答,0赞同