chun2495 发表于 2020-10-13 15:26:36

【人工智能 图像分割 原创首发】第七章 使用转换的模型进行App测试

上一章介绍了.pb转换为.mlmodel,生成了IOS需要的文件“MobileNetV2.mlmodel”,现在我们需要使用它并来预测我们的图像。

1. 加载“MobileNetV2.mlmodel”

将“MobileNetV2.mlmodel”拷贝到IOS工程中,然后打开Xcode,选择File/Add file to xxx,这样就加载进来了,然后再xcode查看一下,信息如下:



可以看到,显示的信息跟我们在python里面的输入是一样的。

2. 用代码来预测,我这里的语言是swift。

let model3 = MobileNetV2()//创建一个新模型

let buffer = image.imageToPixelBuffer(outputSize: CGSize.init(width: 400, height: 320))
let objc3 = try!model3.prediction(ImageTensor: buffer!)
let image3 = MLMultiArray2image(multiArray: objc3.SemanticPredictions_0)
self.scanImageView?.image = image3
UIImageWriteToSavedPhotosAlbum(image3, nil, nil, nil)//图片写入相册

3.效果图如下


至此,这个主体的框架算是完成了。当然细节还有很多,比如图像选取太单一化,这样造成后面识别会有瑕疵。只有将各种类型的图像尽可能多的拿来训练,你的网络健壮性才能得到保障。
我这边大概只训练了20000步,由于不是gpu,速度相对较慢。一天一夜才能训练完。后面的任务就是加大数据量和数据的多样化采集。直到满足需求为之。

amxx 发表于 2020-10-14 08:34:22

楼主,这个有点高大上,虽然不懂,还是为我们打开了一扇门。
页: [1]
查看完整版本: 【人工智能 图像分割 原创首发】第七章 使用转换的模型进行App测试