开源AI模型安全扫描工具助力高效检测风险
ModelScan是Protect AI开发的开源AI模型安全扫描工具,支持H5、Pickle和SavedModel等多种格式。它可快速识别PyTorch、TensorFlow、Keras等框架中的模型安全风险,有效防范模型序列化攻击。ModelScan易于集成到机器学习流程中,为AI模型全生命周期提供安全保障,保护数据和系统安全。
机器学习(ML)模型在互联网上公开共享,在团队内部和团队之间传播。基础模型的兴起导致公共ML模型越来越多地被用于进一步训练/微调。ML模型越来越多地被用于做出关键决策和支持关键任务应用。
尽管如此,模型还没有像扫描收件箱中的PDF文件那样严格地被扫描。
这种情况需要改变,而适当的工具是第一步。
ModelScan是Protect AI的一个开源项目,用于扫描模型以确定它们是否包含不安全的代码。它是第一个支持多种模型格式的模型扫描工具。ModelScan目前支持:H5、Pickle和SavedModel格式。这可以在使用PyTorch、TensorFlow、Keras、Sklearn、XGBoost等框架时保护您,未来还会支持更多。
如果您准备开始扫描您的模型,很简单:
pip install modelscan
安装完成后,扫描一个模型:
modelscan -p /path/to/model_file.pkl
模型通常由自动化流程创建,有些可能来自数据科学家的笔记本电脑。无论哪种情况,模型都需要在使用前从一台机器转移到另一台机器。将模型保存到磁盘的过程称为序列化。
模型序列化攻击是指在序列化(保存)过程中向模型内容添加恶意代码,然后再分发 —— 这是特洛伊木马的现代版本。
攻击通过利用模型的保存和加载过程来实现。当您使用model = torch.load(PATH)
加载模型时,PyTorch会打开文件内容并开始运行其中的代码。一旦加载模型,漏洞就已经执行了。
模型序列化攻击可以用于执行:
这些攻击非常容易执行,您可以在我们的📓notebooks文件夹中查看工作示例。
如果使用机器学习框架加载模型会自动执行攻击,那么ModelScan如何在不加载恶 意代码的情况下检查内容呢?
很简单,它像读取字符串一样一次读取文件内容的一个字节,寻找不安全的代码签名。这使得它非常快速,在大多数情况下只需几秒钟就能扫描完模型(取决于计算机处理磁盘上总文件大小的时间)。它也很安全。
ModelScan将不安全代码分为以下级别:
如果检测到问题,请立即联系模型作者以确定原因。
在某些情况下,代码可能嵌入到模型中以便数据科学家更容易重现,但这会使您面临攻击风险。请自行判断是否适合您的工作负载。
这将不断扩展,所以请关注我们的发布说明中的变化。
目前,ModelScan支持任何Pickle衍生格式和许多其他格式:
ML库 | API | 序列化格式 | modelscan支持 |
---|---|---|---|
Pytorch | torch.save()和torch.load() | Pickle | 是 |
Tensorflow | tf.saved_model.save() | Protocol Buffer | 是 |
Keras | keras.models.save(save_format= 'h5') | HD5 (分层数据格式) | 是 |
keras.models.save(save_format= 'keras') | Keras V3 (分层数据格式) | 是 | |
经典ML库 (Sklearn, XGBoost等) | pickle.dump(), dill.dump(), joblib.dump(), cloudpickle.dump() | Pickle, Cloudpickle, Dill, Joblib |