最近老山完成了对mask-rcnn在modelarts上的部署,部署模型来自于这个项目。部署的过程大体和我的上篇文章使用modelarts部署bert命名实体识别模型相似,许多细节也不在赘述。这篇文章主要介绍下大体的思路、遇到的问题和解决方案,文章结尾会附录运行需要的程序。

部署思路

生成savedModel

原模型是使用tensorflow做backend的keras模型。源程序中的keras模型又被封装在MaskRCNN类中。我们要先取出被封装的keras模型,在源程序提供的demo.ipynb第三步后,我们提取出keras模型

# Create model object in inference mode.
model = modellib.MaskRCNN(mode="inference", model_dir=MODEL_DIR, config=config) # Load weights trained on MS-COCO
model.load_weights(COCO_MODEL_PATH, by_name=True) # 前面来自于demo.ipynb
model = model.keras_model

之后就可以把keras模型变成tensorflow savedModel模型了,代码详见在modelarts上部署backend为TensorFlow的keras模型

customize_service.py书写

这仍然是工作最主要的部分,我们依然找到预测的源程序MaskRCNN.detect函数,我们把detect程序分成前处理+预测+后处理三段,做以下工作:

  1. 把前处理和后处理分别写成子函数,把预测部分去掉,保留类的结构,尽可能减少代码更改量;

  2. 前处理和后处理的数据交换通过类属性传递;

  3. 把无关程序(主要是train部分程序)尽可能去掉,以减少代码调试量。

class MaskRCNN:
# ..... def detect(self, images, verbose=0):
# some code... if verbose:
log("molded_images", molded_images)
log("image_metas", image_metas)
log("anchors", anchors)
# 在此之前是前处理
# 预测
detections, _, _, mrcnn_mask, _, _, _ =\
self.keras_model.predict([molded_images, image_metas, anchors], verbose=0)
# 后处理程序
results = []
for i, image in enumerate(images):
# ...
})
return results

遇到的问题

输出张量大小限制

模型输出张量(定义可见模型部署介绍)有30多M,超过了modelarts目前Tensorflow Serving的4M的限制,因此还需要对savedModel的模型进行更改,首先观察模型输出

0 mrcnn_detection shape:(1, 100, 6) size:600 dtype:float32
1 mrcnn_class shape:(1, 1000, 81) size:81000 dtype:float32
2 mrcnn_bbox shape:(1, 1000, 81, 4) size:324000 dtype:float32
3 mrcnn_mask shape:(1, 100, 28, 28, 81) size:6350400 dtype:float32
4 ROI shape:(1, 1000, 4) size:4000 dtype:float32
5 rpn_class shape:(1, 261888, 2) size:523776 dtype:float32
6 rpn_bbox shape:(1, 261888, 4) size:1047552 dtype:float32

由于输出的张量只有mrcnn_detection和mrcnn_mask两个应用于后处理,输出过大的原因在于mrcnn_mask。我们通过对后处理源程序的观察和运行结果发现,mrcnn_mask几个维度的参数意义如下

维度 意义
0 1 batch size
1 100 检测物体的数目,上限是100
2~3 (28, 28) 物体的mask,被压缩成28*28的网格,数据是float32
4 81 物体的类别id

mrcnn_detection的几个维度的意义:

维度 意义
0 1 batch size
1 100 检测物体的数目,上限是100
2 6 包括top, left, bottom, right, classid, score,如果classid是0,说明是不关心的部分

我们可以从2个方面去精简输出张量:

  1. 检测物体的数目不需要必须凑成100个,我们以实际输出的数目作为准,去掉classid是0的值,这个对mrcnn_mask和mrcnn_detection都做精简;

    通过这种方式,我们不能减少输出的上限,但对大部分情况,输出的张量都能减少到原来的10%左右;

  2. 我们关系的不是所有类别的mask,只关系被检测出物体的类别id下的mask;换言之,我们对于每个被检测的物体,可以在mrcnn_detection上找到他的classid,然后在mrcnn_mask物体类别id中,我们只需输出该id下的mask即可;

    通过这种方式,输出张量可以固定缩减成原来的1/81;

由于4M限制是对于模型输出的,因此更改也只能通过更改savedModel来实现。也因此只能使用tensorflow的一定底层操作。换言之,要把源程序中用python后处理的部分程序需要改写成tf.Operation。也许是考虑了自动求导的原因,tensorflow的张量操作虽然很多,但各个功能都弱的一逼,下面是老山的实现片段

# 前面程序是读入已保存的savedModel模型,读入输出张量y1-y7
detections = y1
mrcnn_masks = y4 # 把detections的classid列取出
detections = detections[0]
classes = tf.cast(detections[:, 4], tf.int32) # 把classid做成一个是否为0的mask: boolean list
zero = tf.constant(0, tf.int32)
mask = tf.not_equal(classes, zero) # 使用mask把detensions,classid精简,range_trim存储了剩下的id号
detection_trim = tf.boolean_mask(detections, mask)
classes_trim = tf.boolean_mask(classes, mask)
range_trim = tf.boolean_mask(tf.range(classes.shape[0], dtype=tf.int32), mask) # 构造一个[index, classid]对的list,长度是已经精简完的classid,命名为stack
stack = tf.stack([range_trim, classes_trim], axis = 1) mrcnn_masks = mrcnn_masks[0]
# 通过transpose把stack的两列弄到前面去
mrcnn_masks = tf.transpose(mrcnn_masks, perm = [0,3,1,2])
# 使用stack来精简mrcnn_masks_trim
mrcnn_masks_trim = tf.gather_nd(mrcnn_masks, stack) # 后续是保存模型
# 详细可见附件

模型的输出张量改动之后,后处理模块的程序也需要做相应的调整。

输出结果的压缩

由于modelarts源程序的后处理的输出包括rois,masks, class_ids, scores等量,其中mask是每个识别物体在原图上的mask(换句话说,就是原图尺寸的boolean矩阵),如果直接变成json的话,原先的占1bit的True/False就会变成文字,下载数据量达到几十M,时间太长。为此,我们需要对输出的masks进行压缩。

老山尝试了这2类算法:

  1. PNG压缩

from PIL import Image
import base64
def mask2str(mask):
# 变成图片
image = Image.fromarray(mask.astype('uint8')*255, 'L').convert('1')
# 把图片输出到buffer里
buffered = BytesIO()
image.save(buffered, format='PNG')
# 使用base64变成文本
base_bytes = base64.b64encode(buffered.getvalue())
base_str = base_bytes.decode('utf-8')
return base_str

2.自建索引压缩

import numpy as np
import base64
import lzma def mask2str(mask):
# 把mask打成一维,寻找值发生变化的索引序列
mask_flatten = mask.reshape(-1)
mask_flatten_toright= np.insert(mask_flatten, 0, False)[:-1]
diff = np.where(mask_flatten!=mask_flatten_toright)[0]
counts = np.diff(diff, prepend=0).astype('int32')
# 使用lzma压缩
counts_bytes = bytes(counts)
lzma_bytes = lzma.compress(counts_bytes)
# 使用base64变成文本
base64_bytes = base64.b64encode(lzma_bytes)
base64_str = base64_bytes.decode('utf-8')
return base64_str
  1. 索引压缩的想法是mask通常是在False背景下的True图,对于每行我们其实只要知道True的起始index和末了index就好,或者更抽象一步的说,图中交替的存在大量的连续False和True序列,那我们只要把他们的长度值变成list即可(默认第一个序列是False,哪怕长度是0)。这样的话,记录长度的好处在于比记录位置值更小,更便于压缩。为此,我们干脆的,把图片拉成一维,然后记录交替False、True序列的长度,再用lzma压缩。

    压缩结果是使用索引只有PNG压缩大小的45%左右。

生成图片

源程序使用matplotlib画图,不好保存,老山用PIL重写了这段程序。

附件结构

附件结构如下,部署使用的模型大家自行在github上下载,然后在notebook上使用modify.py生成savedModel模型。预测中修改get_x_auth_token.py获取x_auth_token后,更改x_auth_token.py,然后下载图片数据,然后便可以使用predict预测了。

root
├── deploy # 部署相关文件
│ ├── coco.py
│ ├── compression_.py
│ ├── config_.py
│ ├── config.py
│ ├── customize_service.py
│ ├── image_util.py
│ ├── model_util.py
│ └── surround.py
├── modify.py # 用于notebook生成savedModel模型
└── predict # 用于预测
├── compression_.py
├── get_x_auth_token.py
├── new_visualize.py
├── predict.py
└── x_auth_token.py

如果觉得老山的文章不错,不妨点击下关注。

present.zip

作者:山找海味

在modelarts上部署mask-rcnn模型的更多相关文章

  1. 在modelarts上部署backend为TensorFlow的keras模型

    最近老山在研究在modelarts上部署mask-rcnn,源代码提供的是keras模型.我们可以将keras转化成savedModel模型,在TensorFlow Serving上部署,可参考老山的 ...

  2. Windows上配置Mask R-CNN及运行示例demo.ipynb

    最近做项目需要用到Mask R-CNN,于是花了几天时间配置.简单跑通代码,踩了很多坑,写下来分享给大家. 首先贴上官方Mask R-CNN的Github地址:https://github.com/m ...

  3. 终极指南:构建用于检测汽车损坏的Mask R-CNN模型(附Python演练)

    介绍 计算机视觉领域的应用继续令人惊叹着.从检测视频中的目标到计算人群中的人数,计算机视觉似乎没有无法克服的挑战. 这篇文章的目的是建立一个自定义Mask R-CNN模型,可以检测汽车上的损坏区域(参 ...

  4. [代码解析]Mask R-CNN介绍与实现(转)

    文章来源 DFann 版权声明:如果你觉得写的还可以,可以考虑打赏一下.转载请联系. https://blog.csdn.net/u011974639/article/details/78483779 ...

  5. Mask R-CNN用于目标检测和分割代码实现

    Mask R-CNN用于目标检测和分割代码实现 Mask R-CNN for object detection and instance segmentation on Keras and Tenso ...

  6. 手把手教你使用LabVIEW实现Mask R-CNN图像实例分割

    前言 前面给大家介绍了使用LabVIEW工具包实现图像分类,目标检测,今天我们来看一下如何使用LabVIEW实现Mask R-CNN图像实例分割. 一.什么是图像实例分割? 图像实例分割(Instan ...

  7. 谷歌大脑提出:基于NAS的目标检测模型NAS-FPN,超越Mask R-CNN

    谷歌大脑提出:基于NAS的目标检测模型NAS-FPN,超越Mask R-CNN 朱晓霞发表于目标检测和深度学习订阅 235 广告关闭 11.11 智慧上云 云服务器企业新用户优先购,享双11同等价格 ...

  8. Tensorflow 模型线上部署

    获取源码,请移步笔者的github: tensorflow-serving-tutorial 由于python的灵活性和完备的生态库,使得其成为实现.验证ML算法的不二之选.但是工业界要将模型部署到生 ...

  9. LabVIEW+OpenVINO在CPU上部署新冠肺炎检测模型实战

    前言 之前博客:[YOLOv5]LabVIEW+OpenVINO让你的YOLOv5在CPU上飞起来给大家介绍了在LabVIEW上使用openvino加速推理,在CPU上也能感受丝滑的实时物体识别.那我 ...

随机推荐

  1. CSPS模拟 41

    说不会鸽就不会鸽的 虽然是炸裂的一场 T1没读懂题,T23交了两个无脑暴力 (公式懒得打了 latex过于感人) T1 点阵内不重合的直线有多少条? 枚举斜率,那么“后继”不在点阵内的点可以作出一个贡 ...

  2. vscode react自动补全html标签

    第一步:点击上图左下角设置,找到Settings,搜索includeLanguages 第二步:如上图点击图中红色区域,settings.json 第三部:把代码加入,如上图红色选择区域. " ...

  3. html5 微信真机调试方法vConsole

    html5 微信真机调试方法 vConsolehttps://blog.csdn.net/weixin_36934930/article/details/79870240

  4. Java虚拟机-字节码指令

    目录 字节码指令 字节码与数据类型 加载和存储指令 运算指令 类型转换指令 对象创建与访问指令 操作数栈管理指令 控制转移指令 方法调用和返回指令 异常处理指令 同步指令 字节码指令 Java虚拟机的 ...

  5. 《计算机网络 自顶向下方法》 第8章 计算机网络中的安全 Part2

    SSL(使 TCP 连接安全) SSL(Secure Socket Layer),即安全套接字层,是对 TCP 的强化 HTTPS 使用 SSL,而 HTTP 不使用 SSL 通过采用机密性.数据完整 ...

  6. glsl shader简明教程系列1

    glsl shader简明教程系列1 底层的东西我就不说了(自己去百度翻基础教程)  我直接说上层了(片段着色器) web编辑器还在开发中 有了编辑器 到时候可以把代码复制上去可以看到效果了 1  实 ...

  7. spark-宽依赖和窄依赖

    一.窄依赖(Narrow Dependency,) 即一个RDD,对它的父RDD,只有简单的一对一的依赖关系.也就是说, RDD的每个partition ,仅仅依赖于父RDD中的一个partition ...

  8. pat 1046 Shortest Distance(20 分) (线段树)

    1046 Shortest Distance(20 分) The task is really simple: given N exits on a highway which forms a sim ...

  9. JavaWeb核心知识点

    一:HTTP协议     一.概述 1. 概念:超文本传输协议 2. 作用:规范了客户端(浏览器)和服务器的数据交互格式 3. 特点 1. 简单快速:客户端向服务器请求服务时,仅通过键值对来传输请求方 ...

  10. VS Code 中使用 GitHub pull request 插件提交代码

    VS Code作为一个代码编辑器,受到很多人的喜爱:其中有很多非常有用的插件/扩展功能,也会极大的提高我们的工作效率. 这里介绍一下GitHub pull request,用来向GitHub提交在VS ...