在移动设备上运行机器学习代码是下一件大事。 PyTorch在最新版本的PyTorch 1.3中添加了PyTorch Mobile,用于在Android和iOS设备上部署机器学习模型。
在这里,我们将研究创建一个用于在图像内部进行对象检测的Android应用程序;如下图所示。
应用程序的演示运行
步骤1:准备模型
在本教程中,我们将使用经过预训练好的ResNet18模型。ResNet18是具有1000个分类类别的最先进的计算机视觉模型。
1.安装Torchvision库
pip install torchvision
2.下载并跟踪ResNet18模型
我们追踪这个模型是因为我们需要一个可执行的ScriptModule来进行即时编译。
import torch
import torchvision
resnet18 = torchvision.models.resnet18(pretrained=True)
resnet18.eval()
example_inputs = torch.rand(1, 3, 224, 224)
resnet18_traced = torch.jit.trace(resnet18, example_inputs = example_inputs)
resnet18_traced.save("resnet18_traced.pt")
注意:
步骤2:制作Android应用程序
1.如果尚未安装,请下载并安装Android Studio,如果是,请单击“是”以下载和安装SDK。链接:https://developer.android.com/studio
2.打开Android Studio,然后单击:启动一个新的Android Studio项目
3.选择清空活动
4.输入应用程序名称:ObjectDetectorDemo,然后按Finish
5.安装NDK运行Android内部运行原生代码:
6.添加依赖项
Insidebuild.gradle(Module:app)。
在依赖项中添加以下内容
dependencies {
implementation fileTree(dir: 'libs', include: ['*.jar'])
implementation 'androidx.appcompat:appcompat:1.0.2'
implementation 'androidx.constraintlayout:constraintlayout:1.1.3'
implementation 'org.pytorch:pytorch_android:1.3.0'
implementation 'org.pytorch:pytorch_android_torchvision:1.3.0'
}
7.添加基本布局以加载图像并显示结果
转到app> res> layout> activity_main.xml,然后添加以下代码
<ImageView
android:id="@+id/image"
app:layout_constraintTop_toTopOf="parent"
android:layout_width="match_parent"
android:layout_height="400dp"
android:layout_marginBottom="20dp"
android:scaleType="fitCenter" />
<TextView
android:id="@+id/result_text"
android:layout_width="match_parent"
android:layout_height="wrap_content"
android:layout_gravity="top"
android:text=""
android:textSize="20dp"
android:textStyle="bold"
android:textAllCaps="true"
android:textAlignment="center"
app:layout_constraintTop_toTopOf="@id/button"
app:layout_constraintBottom_toBottomOf="@+id/image" />
<Button
android:id="@+id/button"
android:layout_width="match_parent"
android:layout_height="wrap_content"
android:text="Load Image"
app:layout_constraintBottom_toBottomOf="@+id/result_text"
app:layout_constraintTop_toTopOf="@+id/detect" />
<Button
android:id="@+id/detect"
android:layout_width="match_parent"
android:layout_height="wrap_content"
android:text="Detect"
android:layout_marginBottom="50dp"
app:layout_constraintBottom_toBottomOf="parent" />
您的布局应如下图所示
8.我们需要设置权限以读取设备上的图像存储
转到app> manifests> AndroidManifest.xml,然后在manifest标签内添加以下代码
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE"/>
获取应用程序加载权限(仅在您授予权限之前询问)
—转到Main Activity java。在onCreate()方法中添加以下代码。
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.M) {
requestPermissions(new String[] {android.Manifest.permission.READ_EXTERNAL_STORAGE}, 1);
}
9.复制模型
现在是时候复制使用python脚本创建的模型了。
从文件资源管理器/查找器中打开您的应用程序。
转到app > src > main。
创建一个名为assets的文件夹将模型复制到此文件夹中。打开后,您将在Android Studio中看到如下图所示。(如果没有,请右键单击应用程序文件夹,然后单击“同步应用程序”)
10.我们需要列出模型的输出类
转到app > java
在第一个文件夹中,将新的Java类名称命名为ModelClasses。
将类的列表定义为(整个列表为1000个类,因此可以在此处复制所有内容(检查Json或Git)以获取完整列表,然后在下面的列表内复制):
public static String[] MODEL_CLASSES = new String[]{
"tench, Tinca tinca",
"goldfish, Carassius auratus"
.
.
.
}
11.Main Activity Java,这里将定义按钮动作,读取图像并调用PyTorch模型。请参阅代码内的注释以获取解释。
package com.tckmpsi.objectdetectordemo;
import androidx.appcompat.app.AppCompatActivity;
import android.content.Context;
import android.content.Intent;
import android.database.Cursor;
import android.graphics.Bitmap;
import android.graphics.BitmapFactory;
import android.graphics.drawable.BitmapDrawable;
import android.net.Uri;
import android.os.Build;
import android.os.Bundle;
import android.provider.MediaStore;
import android.view.View;
import android.widget.Button;
import android.widget.ImageView;
import android.widget.TextView;
import org.pytorch.IValue;
import org.pytorch.Module;
import org.pytorch.Tensor;
import org.pytorch.torchvision.TensorImageUtils;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
public class MainActivity extends AppCompatActivity {
private static int RESULT_LOAD_IMAGE = 1;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
Button buttonLoadImage = (Button) findViewById(R.id.button);
Button detectButton = (Button) findViewById(R.id.detect);
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.M) {
requestPermissions(new String[]{android.Manifest.permission.READ_EXTERNAL_STORAGE}, 1);
}
buttonLoadImage.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View arg0) {
TextView textView = findViewById(R.id.result_text);
textView.setText("");
Intent i = new Intent(
Intent.ACTION_PICK,
MediaStore.Images.Media.EXTERNAL_CONTENT_URI);
startActivityForResult(i, RESULT_LOAD_IMAGE);
}
});
detectButton.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View arg0) {
Bitmap bitmap = null;
Module module = null;
//Getting the image from the image view
ImageView imageView = (ImageView) findViewById(R.id.image);
try {
//Read the image as Bitmap
bitmap = ((BitmapDrawable)imageView.getDrawable()).getBitmap();
//Here we reshape the image into 400*400
bitmap = Bitmap.createScaledBitmap(bitmap, 400, 400, true);
//Loading the model file.
module = Module.load(fetchModelFile(MainActivity.this, "resnet18_traced.pt"));
} catch (IOException e) {
finish();
}
//Input Tensor
final Tensor input = TensorImageUtils.bitmapToFloat32Tensor(
bitmap,
TensorImageUtils.TORCHVISION_NORM_MEAN_RGB,
TensorImageUtils.TORCHVISION_NORM_STD_RGB
);
//Calling the forward of the model to run our input
final Tensor output = module.forward(IValue.from(input)).toTensor();
final float[] score_arr = output.getDataAsFloatArray();
// Fetch the index of the value with maximum score
float max_score = -Float.MAX_VALUE;
int ms_ix = -1;
for (int i = 0; i < score_arr.length; i++) {
if (score_arr[i] > max_score) {
max_score = score_arr[i];
ms_ix = i;
}
}
//Fetching the name from the list based on the index
String detected_class = ModelClasses.MODEL_CLASSES[ms_ix];
//Writing the detected class in to the text view of the layout
TextView textView = findViewById(R.id.result_text);
textView.setText(detected_class);
}
});
}
@Override
protected void onActivityResult(int requestCode, int resultCode, Intent data) {
//This functions return the selected image from gallery
super.onActivityResult(requestCode, resultCode, data);
if (requestCode == RESULT_LOAD_IMAGE && resultCode == RESULT_OK && null != data) {
Uri selectedImage = data.getData();
String[] filePathColumn = { MediaStore.Images.Media.DATA };
Cursor cursor = getContentResolver().query(selectedImage,
filePathColumn, null, null, null);
cursor.moveToFirst();
int columnIndex = cursor.getColumnIndex(filePathColumn[0]);
String picturePath = cursor.getString(columnIndex);
cursor.close();
ImageView imageView = (ImageView) findViewById(R.id.image);
imageView.setImageBitmap(BitmapFactory.decodeFile(picturePath));
//Setting the URI so we can read the Bitmap from the image
imageView.setImageURI(null);
imageView.setImageURI(selectedImage);
}
}
public static String fetchModelFile(Context context, String modelName) throws IOException {
File file = new File(context.getFilesDir(), modelName);
if (file.exists() && file.length() > 0) {
return file.getAbsolutePath();
}
try (InputStream is = context.getAssets().open(modelName)) {
try (OutputStream os = new FileOutputStream(file)) {
byte[] buffer = new byte[4 * 1024];
int read;
while ((read = is.read(buffer)) != -1) {
os.write(buffer, 0, read);
}
os.flush();
}
return file.getAbsolutePath();
}
}
}
12.现在是时候测试应用程序了。两种方法有两种:
链接到Git存储库:https://github.com/tusharck/Object-Detector-Android-App-Using-PyTorch-Mobile-Neural-Network
好看的人才能点