写一个Android 基于tensorflow自动检测并拍照的demo

时间: 2023-07-31 16:09:23 浏览: 57
这里是一个基于TensorFlow Lite和Camera2 API的Android自动检测并拍照的Demo。 首先,在gradle文件中添加以下依赖: ``` implementation 'org.tensorflow:tensorflow-lite:2.5.0' implementation 'org.tensorflow:tensorflow-lite-gpu:2.5.0' ``` 接下来,创建一个Camera2的预览类CameraPreview,用于预览相机画面,并在其中初始化TensorFlow Lite模型。 ``` public class CameraPreview extends TextureView implements TextureView.SurfaceTextureListener, ImageReader.OnImageAvailableListener { private static final String MODEL_PATH = "model.tflite"; private static final String LABELS_PATH = "labels.txt"; private CameraDevice cameraDevice; private CameraCaptureSession cameraCaptureSession; private CaptureRequest.Builder captureRequestBuilder; private HandlerThread backgroundThread; private Handler backgroundHandler; private ImageReader imageReader; private Interpreter interpreter; private List<String> labels; public CameraPreview(Context context) { super(context); setSurfaceTextureListener(this); initModel(); } private void initModel() { try { // 加载模型 interpreter = new Interpreter(loadModelFile(), new Interpreter.Options()); // 加载标签 labels = loadLabelList(); } catch (IOException e) { e.printStackTrace(); } } private MappedByteBuffer loadModelFile() throws IOException { AssetFileDescriptor fileDescriptor = getContext().getAssets().openFd(MODEL_PATH); FileInputStream inputStream = new FileInputStream(fileDescriptor.getFileDescriptor()); FileChannel fileChannel = inputStream.getChannel(); long startOffset = fileDescriptor.getStartOffset(); long declaredLength = fileDescriptor.getDeclaredLength(); return fileChannel.map(FileChannel.MapMode.READ_ONLY, startOffset, declaredLength); } private List<String> loadLabelList() throws IOException { List<String> labelList = new ArrayList<>(); BufferedReader reader = new BufferedReader(new InputStreamReader(getContext().getAssets().open(LABELS_PATH))); String line; while ((line = reader.readLine()) != null) { labelList.add(line); } reader.close(); return labelList; } @Override public void onSurfaceTextureAvailable(SurfaceTexture surfaceTexture, int width, int height) { openCamera(); } private void openCamera() { CameraManager cameraManager = (CameraManager) getContext().getSystemService(Context.CAMERA_SERVICE); try { String cameraId = cameraManager.getCameraIdList()[0]; CameraCharacteristics cameraCharacteristics = cameraManager.getCameraCharacteristics(cameraId); Size[] outputSizes = cameraCharacteristics.get(CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP).getOutputSizes(ImageFormat.JPEG); imageReader = ImageReader.newInstance(outputSizes[0].getWidth(), outputSizes[0].getHeight(), ImageFormat.JPEG, 1); imageReader.setOnImageAvailableListener(this, backgroundHandler); if (ActivityCompat.checkSelfPermission(getContext(), Manifest.permission.CAMERA) != PackageManager.PERMISSION_GRANTED) { return; } cameraManager.openCamera(cameraId, new CameraDevice.StateCallback() { @Override public void onOpened(CameraDevice cameraDevice) { CameraPreview.this.cameraDevice = cameraDevice; createCameraPreviewSession(); } @Override public void onDisconnected(CameraDevice cameraDevice) { cameraDevice.close(); CameraPreview.this.cameraDevice = null; } @Override public void onError(CameraDevice cameraDevice, int error) { cameraDevice.close(); CameraPreview.this.cameraDevice = null; } }, backgroundHandler); } catch (CameraAccessException e) { e.printStackTrace(); } } private void createCameraPreviewSession() { SurfaceTexture surfaceTexture = getSurfaceTexture(); surfaceTexture.setDefaultBufferSize(1920, 1080); Surface previewSurface = new Surface(surfaceTexture); Surface readerSurface = imageReader.getSurface(); try { captureRequestBuilder = cameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW); captureRequestBuilder.addTarget(previewSurface); captureRequestBuilder.addTarget(readerSurface); cameraDevice.createCaptureSession(Arrays.asList(previewSurface, readerSurface), new CameraCaptureSession.StateCallback() { @Override public void onConfigured(CameraCaptureSession cameraCaptureSession) { CameraPreview.this.cameraCaptureSession = cameraCaptureSession; updatePreview(); } @Override public void onConfigureFailed(CameraCaptureSession cameraCaptureSession) { } }, backgroundHandler); } catch (CameraAccessException e) { e.printStackTrace(); } } private void updatePreview() { if (cameraDevice == null) { return; } captureRequestBuilder.set(CaptureRequest.CONTROL_MODE, CameraMetadata.CONTROL_MODE_AUTO); try { cameraCaptureSession.setRepeatingRequest(captureRequestBuilder.build(), null, backgroundHandler); } catch (CameraAccessException e) { e.printStackTrace(); } } @Override public void onSurfaceTextureSizeChanged(SurfaceTexture surfaceTexture, int width, int height) { } @Override public boolean onSurfaceTextureDestroyed(SurfaceTexture surfaceTexture) { closeCamera(); return true; } private void closeCamera() { if (cameraDevice != null) { cameraDevice.close(); cameraDevice = null; } if (cameraCaptureSession != null) { cameraCaptureSession.close(); cameraCaptureSession = null; } if (imageReader != null) { imageReader.close(); imageReader = null; } } @Override public void onSurfaceTextureUpdated(SurfaceTexture surfaceTexture) { } @Override public void onImageAvailable(ImageReader reader) { Image image = reader.acquireLatestImage(); Bitmap bitmap = getBitmap(image); image.close(); // 在子线程中进行模型推理 new Thread(() -> { String result = recognize(bitmap); if (result.equals("cat")) { // 拍照 takePicture(); } }).start(); } private Bitmap getBitmap(Image image) { ByteBuffer buffer = image.getPlanes()[0].getBuffer(); byte[] bytes = new byte[buffer.remaining()]; buffer.get(bytes); return BitmapFactory.decodeByteArray(bytes, 0, bytes.length); } private String recognize(Bitmap bitmap) { Bitmap resizedBitmap = Bitmap.createScaledBitmap(bitmap, 224, 224, true); TensorImage inputImage = new TensorImage(DataType.FLOAT32); inputImage.load(resizedBitmap); TensorBuffer outputBuffer = TensorBuffer.createFixedSize(new int[]{1, labels.size()}, DataType.FLOAT32); interpreter.run(inputImage.getBuffer(), outputBuffer.getBuffer()); float[] results = outputBuffer.getFloatArray(); int index = getMaxIndex(results); return labels.get(index); } private int getMaxIndex(float[] array) { int maxIndex = 0; float max = array[maxIndex]; for (int i = 1; i < array.length; i++) { if (array[i] > max) { max = array[i]; maxIndex = i; } } return maxIndex; } private void takePicture() { try { CaptureRequest.Builder builder = cameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_STILL_CAPTURE); builder.addTarget(imageReader.getSurface()); builder.set(CaptureRequest.CONTROL_MODE, CameraMetadata.CONTROL_MODE_AUTO); builder.set(CaptureRequest.JPEG_ORIENTATION, getOrientation()); cameraCaptureSession.stopRepeating(); cameraCaptureSession.abortCaptures(); cameraCaptureSession.capture(builder.build(), null, null); } catch (CameraAccessException e) { e.printStackTrace(); } } private int getOrientation() { int rotation = ((Activity) getContext()).getWindowManager().getDefaultDisplay().getRotation(); int sensorOrientation = cameraDevice.getCameraCharacteristics(CameraCharacteristics.SENSOR_ORIENTATION); return (rotation + sensorOrientation + 270) % 360; } public void startBackgroundThread() { backgroundThread = new HandlerThread("Camera Background"); backgroundThread.start(); backgroundHandler = new Handler(backgroundThread.getLooper()); } public void stopBackgroundThread() { backgroundThread.quitSafely(); try { backgroundThread.join(); backgroundThread = null; backgroundHandler = null; } catch (InterruptedException e) { e.printStackTrace(); } } } ``` 然后,在Activity中使用CameraPreview类,并在onResume和onPause方法中开始和停止后台线程。 ``` public class MainActivity extends AppCompatActivity { private CameraPreview cameraPreview; @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); cameraPreview = new CameraPreview(this); FrameLayout previewLayout = findViewById(R.id.preview_layout); previewLayout.addView(cameraPreview); } @Override protected void onResume() { super.onResume(); cameraPreview.startBackgroundThread(); } @Override protected void onPause() { cameraPreview.stopBackgroundThread(); super.onPause(); } } ``` 注意,这个Demo还需要一张名为"labels.txt"的标签文件和一个名为"model.tflite"的TensorFlow Lite模型文件,应该将它们放在assets目录下。

相关推荐

最新推荐

recommend-type

Java+appium+Android模拟器自动化demo

Java+appium+Android模拟器自动化demo是关于安卓自动化模拟的图文文档教程,以java、appium、Android studio、Android 9、idea为开发环境。
recommend-type

Android 中使用 dlib+opencv 实现动态人脸检测功能

完成 Android 相机预览功能以后,在此基础上我使用 dlib 与 opencv 库做了一个关于人脸检测的 demo。接下来通过本文给大家介绍Android 中使用 dlib+opencv 实现动态人脸检测功能 ,需要的朋友可以参考下
recommend-type

详解Android Studio实现用户登陆界面demo(xml实现)

主要介绍了详解Android Studio实现用户登陆界面demo,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
recommend-type

Android基于腾讯云实时音视频仿微信视频通话最小化悬浮

主要为大家详细介绍了Android基于腾讯云实时音视频实现类似微信视频通话最小化悬浮,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

JAVA实现长连接(含心跳检测Demo)

主要介绍了JAVA实现长连接(含心跳检测Demo),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLO目标检测算法的挑战与机遇:数据质量、计算资源与算法优化,探索未来发展方向

![:YOLO目标检测算法的挑战与机遇:数据质量、计算资源与算法优化,探索未来发展方向](https://img-blog.csdnimg.cn/7e3d12895feb4651b9748135c91e0f1a.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5rKJ6YaJ77yM5LqO6aOO5Lit,size_20,color_FFFFFF,t_70,g_se,x_16) # 1. YOLO目标检测算法简介 YOLO(You Only Look Once)是一种
recommend-type

def ObjFun(x,y,beta): # 目标函数 """ Logistic regression loss function :param beta: model parameter vector :param x: feature matrix :param y: label vector :return: loss value """ n = x.shape[0] p = x.shape[1] pred = 1 / (1 + np.exp(-np.dot(x, beta))) pred = np.clip(pred, 1e-15, 1 - 1e-15) # 将预测值限制在一个很小的区间内 ObjVal = -np.sum(y * np.log(pred) + (1 - y) * np.log(1 - pred)) / n return ObjVal

好的,根据上面的目标函数,我们可以推导出其对应的梯度向量函数,如下所示: def gradient(x, y, beta): """ Compute gradient of the logistic regression loss function :param beta: model parameter vector :param x: feature matrix :param y: label vector :return: gradient vector """ n = x.shape[0] pred = 1 /
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。