我想做一个应用程序,使用iOS的新CoreML框架来进行图像识别。要做到这一点,我可能不得不训练自己的模型,我想知道它到底需要多少数据和计算能力。这是我可以在双核i5 Macbook Pro上使用谷歌图像作为源数据来实现的吗?还是会涉及更多?
发布于 2017-06-11 01:20:20
这取决于您希望训练模型以识别哪种类型的图像。
通常所做的是对现有模型进行微调。你使用一个预先训练好的版本的Inception-v3 (比方说),然后用你自己的替换最后一层。你可以在你自己的图像上训练最后一层。
你仍然需要相当数量的训练图像(每个类别100张,但越多越好),但你可以在你的MacBook专业版上在30分钟到几个小时之间的任何地方做到这一点。
TensorFlow附带了一个script,这使得这项工作变得非常容易。Keras有一个关于如何做到这一点的great blog post。我使用TensorFlow脚本重新训练了Inception-v3,以区分我的两只猫,每只猫大约有50张图像。
如果你想从头开始训练,你可能想要在云中使用亚马逊网络服务,谷歌的cloud ML引擎,或者像FloydHub这样简单的东西。
https://stackoverflow.com/questions/44475470
复制相似问题