利用OPENCV为android开发畸变校正的JNI库方法

需要为项目提供一套畸变校正的算法,由于需要大量的矩阵运算,考虑到效率和适时性,使用JNI开发,希望把有关数组短阵的处理的变换全部放入C语言中处理。

主要用于android移动端,大致的数据来源一是从camera直接读取YUV数据,一种是从第三方接读取RGB数据,另一种是直接对BITMAP进行处理。

1.考虑到硬件设备接口,第三方软件接口,图像接口,OPENCV接口,希望能够开发出通用的算法库,一劳永逸的解决各种复杂的使用场景,因此数据要支持YUV,支持ARGB,支持MAT

2android对BITMAP有获取像素点的操作,也有通过象素点生成BITMAP的操作,而且有很多图像处理接口和第三方可以处理RGB矩阵,如

bm.getPixels(pixs, 0, w, 0, 0, w, h);
int[] pixs1 = new int[w*h];
    final Bitmap bm2 = Bitmap.createBitmap(pixs1, w, h, Bitmap.Config.ARGB_8888);

因此设计如下接口,入口为ARGB的整型,输出也是整型

public static native boolean RgbaUndistort(int[] argb, int width, int height, int[] pixels);

3考虑到有些情况需要二维数组,

public static native boolean RgbaUndistort2(int[][] rgb, int width, int height, int[] pixels);

4考虑到OPENCV的MAT结构,由于MAT有matToBitmap可以直接转化为BITMAP,应用MAT 提供

public static native boolean RgbaUndistortMat(int[] argb, int width, int height, long pArgbOutMatAddr);

5考虑到第三方使用MAT的情况,因此输入也可以支持MAT因此设计接口

public static native boolean RgbMatUndistortMat(long pArgbMatAddr, int width, int height, long pArgbOutMatAddr);

6考虑到摄像头输出YUV,提供YUV数据处理, 一个输出RGB, 一个输出MAT

public static native boolean YuvNv21UndistortRgba(byte[] YuvNv21, int width, int height, int[] pixels);
public static native boolean YuvNv21UndistortRgbaMat(byte[] YuvNv21, int width, int height, long pMatAddr);

7考虑到可能有不需要畸变的场合,为YUV设计一个灰度,一个RGB接口

public static native boolean YuvNv21ToGray(byte[] YuvNv21,int width, int height, int[] pixels);
public static native boolean YuvNv21ToRGBA(byte[] YuvNv21, int width, int height, int[] pixels);

8于是编写简单的JAVA头源生类

public class ImageProc3 {
	static {
		System.loadLibrary("ImgProc3");
	}

	public static native boolean YuvNv21ToGray(byte[] YuvNv21,int width, int height, int[] pixels);
	public static native boolean YuvNv21ToRGBA(byte[] YuvNv21, int width, int height, int[] pixels);

	public static native boolean RgbaUndistort(int[] argb, int width, int height, int[] pixels);
	public static native boolean RgbaUndistort2(int[][] rgb, int width, int height, int[] pixels);
	public static native boolean RgbaUndistortMat(int[] argb, int width, int height, long pArgbOutMatAddr);
	public static native boolean RgbMatUndistortMat(long pArgbMatAddr, int width, int height, long pArgbOutMatAddr);

	public static native boolean YuvNv21UndistortRgba(byte[] YuvNv21, int width, int height, int[] pixels);
	public static native boolean YuvNv21UndistortRgbaMat(byte[] YuvNv21, int width, int height, long pMatAddr);

}

进入BIN目录的classes文件夹使用java -classpath . -jni 生成C头文件

根据头文件编写实现的C代码

#include <stdio.h>
#include <jni.h>
#include<Android/log.h>

#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>

using namespace std;
using namespace cv;

#define TAG  "Camera XXXXX" // 锟斤拷锟斤拷锟斤拷远锟斤拷锟斤拷LOG锟侥憋拷识
#define LOGD(...) __android_log_print(ANDROID_LOG_DEBUG,TAG,__VA_ARGS__) // 锟斤拷锟斤拷LOGD锟斤拷锟斤拷

#ifdef __cplusplus
extern "C" {
#endif
/*
 * Class:   ImgProc_ImageProc3
 * Method:  YuvNv21ToGray
 * Signature: ([BII[I)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_YuvNv21ToGray
 (JNIEnv *jenv, jclass jclassz, jbyteArray YuvNv21, jint width, jint height, jintArray pixels){

	jbyte * pNV21FrameData = jenv->GetByteArrayElements(YuvNv21, 0);
	jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);

	Mat mNV(height, width, CV_8UC1, (unsigned char*) pNV21FrameData);
	Mat mBgra(height, width, CV_8UC4, (unsigned char*) poutPixels);

	cvtColor(mNV, mBgra, CV_YUV420sp2RGBA);

	jenv->ReleaseByteArrayElements(YuvNv21, pNV21FrameData, 0);
	jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

  return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  YuvNv21ToRGBA
 * Signature: ([BII[I)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_YuvNv21ToRGBA
 (JNIEnv *jenv, jclass jclassz, jbyteArray YuvNv21, jint width, jint height, jintArray pixels){
	jbyte * pBuf = (jbyte*) jenv->GetByteArrayElements(YuvNv21, 0);
	jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);

	Mat image(height + height / 2, width, CV_8UC1, (unsigned char *) pBuf);
	Mat rgba(height, width, CV_8UC4, (unsigned char*) poutPixels);
	Mat tmp(height, width, CV_8UC4);
	cvtColor(image, tmp, CV_YUV420sp2RGBA);

	vector <Mat> channels;
	split(tmp, channels);
	Mat r = channels.at(0);
	Mat g = channels.at(1);
	Mat b = channels.at(2);
	Mat a = channels.at(3);

	vector <Mat> mbgr(4);
	mbgr[0] = b;
	mbgr[1] = g;
	mbgr[2] = r;
	mbgr[3] = a;

	merge(mbgr, rgba);

	jenv->ReleaseByteArrayElements(YuvNv21, pBuf, 0);
	jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  RgbaUndistort
 * Signature: ([III[I)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_RgbaUndistort
 (JNIEnv *jenv, jclass jclassz, jintArray argb, jint width, jint height, jintArray pixels){
	jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);
	jint * pinPixels = jenv->GetIntArrayElements(argb, 0);

	Mat out(height, width, CV_8UC4, (unsigned char*) poutPixels);
	Mat in(height, width, CV_8UC4, (unsigned char*) pinPixels);

	double cam[] = {width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);
	undistort(in, out, camMat, disMat);

	jenv->ReleaseIntArrayElements(argb, pinPixels, 0);
	jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);
	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  RgbaUndistort2
 * Signature: ([[III[I)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_RgbaUndistort2(JNIEnv *jenv,
		jclass jclassz, jobjectArray argb, jint width, jint height,
		jintArray pixels) {

	jint i, j;
	int row = jenv->GetArrayLength(argb);
	jintArray myarray = (jintArray)(jenv->GetObjectArrayElement(argb, 0));
	int col = jenv->GetArrayLength(myarray);
	jint jniData[row][col];
	LOGD("jiaXXX %s", "Java_ImgProc_ImageProc_convertRGB3");
	for (i = 0; i < row; i++) {
		myarray = (jintArray)(jenv->GetObjectArrayElement(argb, i));
		jint *coldata = jenv->GetIntArrayElements(myarray, 0);

		for (j = 0; j < col; j++) {
			jniData[i][j] = coldata[j];
			LOGD("jiaXXX %d", jniData[i][j]);
		}

		jenv->ReleaseIntArrayElements(myarray, coldata, 0);

	}

	Mat img = Mat(row, col, CV_8UC4, jniData);
	LOGD("jiaXXX %x", img.at<unsigned int>(1, 1));

	double cam[] = {width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);

	jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);
	Mat out(height, width, CV_8UC4, (unsigned char*) poutPixels);
	undistort(img, out, camMat, disMat);

	jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  RgbaUndistortMat
 * Signature: ([IIIJ)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_RgbaUndistortMat
 (JNIEnv *jenv, jclass jclassz, jintArray argb, jint width, jint height, jlong pArgbOutMatAddr){

	//jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);
	jint * pinPixels = jenv->GetIntArrayElements(argb, 0);

	//Mat out(height, width, CV_8UC4, (unsigned char*) poutPixels);
	Mat in(height, width, CV_8UC4, (unsigned char*) pinPixels);
	Mat out = *((Mat*)pArgbOutMatAddr);

	double cam[] = {width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);
	undistort(in, out, camMat, disMat);

	jenv->ReleaseIntArrayElements(argb, pinPixels, 0);
	//jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  RgbMatUndistortMat
 * Signature: (JIIJ)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_RgbMatUndistortMat
 (JNIEnv *jenv, jclass jclassz, jlong pArgbMatAddr, jint width, jint height, jlong pArgbOutMatAddr){

	Mat in=*((Mat*)pArgbMatAddr);
	Mat out = *((Mat*)pArgbOutMatAddr);

	double cam[] = {width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);
	undistort(in, out, camMat, disMat);

	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  YuvNv21UndistortRgba
 * Signature: ([BII[I)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_YuvNv21UndistortRgba
 (JNIEnv *jenv, jclass jclassz, jbyteArray YuvNv21, jint width, jint height, jintArray pixels){

	jbyte * pBuf = (jbyte*) jenv->GetByteArrayElements(YuvNv21, 0);
	jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);

	Mat image(height + height / 2, width, CV_8UC1, (unsigned char *) pBuf);
	Mat rgba(height, width, CV_8UC4, (unsigned char*) poutPixels);
	Mat tmp(height, width, CV_8UC4);
	cvtColor(image, tmp, CV_YUV420sp2RGBA);

	double cam[] = { width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);
	undistort(tmp, tmp, camMat, disMat);

	vector < Mat > channels;
	split(tmp, channels);
	Mat r = channels.at(0);
	Mat g = channels.at(1);
	Mat b = channels.at(2);
	Mat a = channels.at(3);

	vector < Mat > mbgr(4);
	mbgr[0] = b;
	mbgr[1] = g;
	mbgr[2] = r;
	mbgr[3] = a;

	merge(mbgr, rgba);

	jenv->ReleaseByteArrayElements(YuvNv21, pBuf, 0);
	jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

	return true;
}

/*
 * Class:   ImgProc_ImageProc3
 * Method:  YuvNv21UndistortRgbaMat
 * Signature: ([BIIJ)Z
 */
JNIEXPORT jboolean JNICALL Java_ImgProc_ImageProc3_YuvNv21UndistortRgbaMat
 (JNIEnv *jenv, jclass jclassz, jbyteArray YuvNv21, jint width, jint height, jlong pMatAddr){

	jbyte * pBuf = (jbyte*) jenv->GetByteArrayElements(YuvNv21, 0);
	//jint * poutPixels = jenv->GetIntArrayElements(pixels, 0);

	Mat image(height + height / 2, width, CV_8UC1, (unsigned char *) pBuf);
	//Mat rgba(height, width, CV_8UC4, (unsigned char*) poutPixels);
	Mat rgba = *((Mat*) pMatAddr);
	Mat tmp(height, width, CV_8UC4);
	cvtColor(image, tmp, CV_YUV420sp2RGBA);

	double cam[] = { width, 0, width / 2, 0, height, height / 2, 0, 0, 1 };
	double distort[] = { 0.1, 0.35, 0.0, 0.0, 0.01 };

	Mat camMat = Mat(3, 3, CV_64FC1, cam);
	Mat disMat = Mat(5, 1, CV_64FC1, distort);
	undistort(tmp, tmp, camMat, disMat);

	vector < Mat > channels;
	split(tmp, channels);
	Mat r = channels.at(0);
	Mat g = channels.at(1);
	Mat b = channels.at(2);
	Mat a = channels.at(3);

	vector < Mat > mbgr(4);
	mbgr[0] = b;
	mbgr[1] = g;
	mbgr[2] = r;
	mbgr[3] = a;

	merge(mbgr, rgba);

	jenv->ReleaseByteArrayElements(YuvNv21, pBuf, 0);
	//jenv->ReleaseIntArrayElements(pixels, poutPixels, 0);

	return true;
}

#ifdef __cplusplus
}
#endif

以上这篇利用OPENCV为android开发畸变校正的JNI库方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • Android 通过jni返回Mat数据类型方法

    Android 开发过程中为了实现代码的高效性,通常要调用本地c++代码,JNI是java语言提供的和c/c++相互沟通的机制,在使用opencv做图像处理时,通常要调用c/c++代码进行相关操作,将处理后的结果返回java进行显示或者其他操作. 可以在java部分创建一个Mat,用于保存图像处理结果图像,获取Mat 的本地地址传入jni函数中: // java Mat res = new Mat(); jni_fun(res.getNativeObjAddr()); c++部分新建Mat指针指

  • Android将camera获取到的YuvData在jni中转化为Mat方法

    Android中可以通过camera获取图像,并实时处理,不同的手机camera支持的的图像格式不同,可以采用getCameraPreviewFormat来得到preview支持的图像编码格式,Android默认使用NV21(yuv420sp)的图像格式,因为大部分手机都支持. 为了达到实时处理的目的,很多时候我们将得到的yuv数据直接传入jni中的c++使用,减少上层转化图像格式的过程yuv420本身属于单通道图像,若图像处理中只需要获取灰度图像,可以在c++中直接通过Mat构造函数构造生成灰

  • 利用OPENCV为android开发畸变校正的JNI库方法

    需要为项目提供一套畸变校正的算法,由于需要大量的矩阵运算,考虑到效率和适时性,使用JNI开发,希望把有关数组短阵的处理的变换全部放入C语言中处理. 主要用于android移动端,大致的数据来源一是从camera直接读取YUV数据,一种是从第三方接读取RGB数据,另一种是直接对BITMAP进行处理. 1.考虑到硬件设备接口,第三方软件接口,图像接口,OPENCV接口,希望能够开发出通用的算法库,一劳永逸的解决各种复杂的使用场景,因此数据要支持YUV,支持ARGB,支持MAT 2android对BI

  • android广角相机畸变校正算法和实现示例

    1.光学相机镜头一般都存在畸变的问题,畸变属于成像的几何失真,它是由于焦平面上不同区域对影像的放大率不同而形成的画面扭曲变形现象.除了一些特定的场合,大部分情况下,这些失真都是需要校正到正常人眼不产生扭曲的程度. 2常见的畸变是枕形畸变,桶形畸变和线性畸变.广角镜头的摄像设备拍摄出来的图像经常会有桶形畸变的问题.原因在于广角镜头使用的是凸透镜,初中物理知识告诉我们凸透镜会对光线起汇聚作用,这是光的折射造成的.而离镜头中心越远,折射效果越强,因而其拍出来的照片会以镜头中心为圆心,呈圆形向外扩展失真

  • Android开发中播放声音的两种方法分析

    本文实例讲述了Android开发中播放声音的两种方法.分享给大家供大家参考,具体如下: 在Android中,音频.视频等多媒体元素的加入,使得应用程序的用户体验更好.可以说,现在的手机,已经远远不只作为通信工具,更成为娱乐.办公的必备产品. Android提供了简单的音频API.一般大家使用的是MediaPlayer播放音频,这也是最常见的一种播放声音的工具.这种工具在互联网上有大量的实例,因此在此只做简单的介绍. 对播放行为的控制是三个大家非常熟悉的方法:start().stop()和paus

  • Android开发中Intent传递对象的方法分析

    本文实例分析了Android开发中Intent传递对象的方法.分享给大家供大家参考,具体如下: 方法一: 利用方法:public Intent putExtra (String name, Parcelable value)传递一个Parceable的参数,此方法的参数被序列化到内存. 利用方法:public Intent putExtra (String name, Serializable value)传递一个实现了序列化接口类的对象,此方法的实参被序列化到磁盘. 方法二: 把数据存放到应用

  • Android开发之背景动画简单实现方法

    本文实例讲述了Android开发之背景动画简单实现方法.分享给大家供大家参考,具体如下: 1.先创建动画层,有三张图片 <?xml version="1.0" encoding="utf-8"?> <animation-list xmlns:android="http://schemas.android.com/apk/res/android" > <item android:drawable="@draw

  • Android开发控制ScrollView滑动速度的方法

    本文实例讲述了Android开发控制ScrollView滑动速度的方法.分享给大家供大家参考,具体如下: 前言 由于各个Android平板触摸屏的材质不一样,滑动效果会有一些区别,有的比较灵敏,有的比较迟钝,这里就遇到了要求控制滑动速度的需求... 正文 翻阅查找ScrollView的文档并搜索了一下没有发现直接设置的属性和方法,这里通过继承来达到这一目的. /** * 快/慢滑动ScrollView * @author 农民伯伯 * */ public class SlowScrollView

  • Android开发之加载图片的方法

    本文实例讲述了Android开发之加载图片的方法.分享给大家供大家参考.具体分析如下: 加载网络上的图片需要在manifest中配置访问网络的权限,如下: <uses-permission android:name="android.permission.INTERNET" /> 如果不配置这个权限的话,会报错:unknown host exception. package com.example.loadimgfromweb; import java.io.InputSt

  • Android开发自定义TextView省略号样式的方法

    本文实例讲述了Android开发自定义TextView省略号样式的方法.分享给大家供大家参考,具体如下: 在布局xml中设置textView的字段 android:maxLines="2"  android:ellipsize="end"字段之后,textview会自动压缩行数,并且对压缩掉的部分用...显示.如果不想用...而想用...或者... ...就需要自定义这个省略号的样式,不需要自定义控件,方法如下. 首先是布局文件 <TextView andro

  • Android开发简单实现摇动动画的方法

    本文实例讲述了Android开发简单实现摇动动画的方法.分享给大家供大家参考,具体如下: 1.先创建shake.xml <?xml version="1.0" encoding="utf-8"?> <translate xmlns:android="http://schemas.android.com/apk/res/android" android:duration="700" android:fromXD

  • Android开发实现Gallery画廊效果的方法

    本文实例讲述了Android开发实现Gallery画廊效果的方法.分享给大家供大家参考,具体如下: 画廊 使用Gallery表示,按水平方向显示内容,并且可以用手指直接拖动图片移动,一般用来浏览图片,被选中的选项位于中间,可以响应事件显示信息. xml布局文件基本语法 <Gallery 属性列表 /> Gallery支持4中xml属性 属性名称 描述 android:animationDuration 设置布局变化时动画的转换所需的时间(毫秒级).仅在动画开始时计时.该值必须是整数,比如:10

随机推荐