Android動(dòng)態(tài)人臉檢測(cè)的示例代碼(臉數(shù)可調(diào))
人臉檢測(cè)
這里的人臉檢測(cè)并非人臉識(shí)別,但是卻可以識(shí)別出是否有人,當(dāng)有人時(shí)候,你可以將幀圖進(jìn)行人臉識(shí)別(這里推薦Face++的sdk),當(dāng)然我寫(xiě)的demo中沒(méi)有加入人臉識(shí)別,有興趣的朋友可以追加。face++
android自帶的人臉檢測(cè)
這里我們用到了人臉檢測(cè)類為 FaceDetector.這個(gè)類提供了強(qiáng)大的人臉檢測(cè)功能,可以方便我們進(jìn)行人臉的偵測(cè),因此我們使用他來(lái)進(jìn)行動(dòng)態(tài)的人臉檢測(cè),實(shí)現(xiàn)原理,其實(shí)也挺簡(jiǎn)單,主要是通過(guò)Carmen的回調(diào)PreviewCallback 在其中對(duì)幀圖進(jìn)行操作,并通過(guò)FaceDetector來(lái)檢測(cè)該幀圖中是否有人臉。當(dāng)然如果你想在surfaceview中繪制人臉的范圍,可以將畫(huà)布與其綁定,畫(huà)完再解綁。
第一步
我們首先來(lái)定義一個(gè)surfaceview 蓋在我們Carmen使用的surfaceview上 進(jìn)行對(duì)人臉?lè)秶睦L制
public class FindFaceView extends SurfaceView implements SurfaceHolder.Callback {
private SurfaceHolder holder;
private int mWidth;
private int mHeight;
private float eyesDistance;
public FindFaceView(Context context, AttributeSet attrs) {
super(context, attrs);
holder = getHolder();
holder.addCallback(this);
holder.setFormat(PixelFormat.TRANSPARENT);
this.setZOrderOnTop(true);
}
@Override
public void surfaceChanged(SurfaceHolder holder, int format, int width,
int height) {
mWidth = width;
mHeight = height;
}
@Override
public void surfaceCreated(SurfaceHolder holder) {
}
@Override
public void surfaceDestroyed(SurfaceHolder holder) {
}
public void drawRect(FaceDetector.Face[] faces, int numberOfFaceDetected) {
Canvas canvas = holder.lockCanvas();
if (canvas != null) {
Paint clipPaint = new Paint();
clipPaint.setAntiAlias(true);
clipPaint.setStyle(Paint.Style.STROKE);
clipPaint
.setXfermode(new PorterDuffXfermode(PorterDuff.Mode.CLEAR));
canvas.drawPaint(clipPaint);
canvas.drawColor(getResources().getColor(color.transparent));
Paint paint = new Paint();
paint.setAntiAlias(true);
paint.setColor(Color.GREEN);
paint.setStyle(Style.STROKE);
paint.setStrokeWidth(5.0f);
for (int i = 0; i < numberOfFaceDetected; i++) {
Face face = faces[i];
PointF midPoint = new PointF();
// 獲得兩眼之間的中間點(diǎn)
face.getMidPoint(midPoint);
// 獲得兩眼之間的距離
eyesDistance = face.eyesDistance();
// 換算出預(yù)覽圖片和屏幕顯示區(qū)域的比例參數(shù)
float scale_x = mWidth / 500;
float scale_y = mHeight / 600;
Log.e("eyesDistance=", eyesDistance + "");
Log.e("midPoint.x=", midPoint.x + "");
Log.e("midPoint.y=", midPoint.y + "");
// 因?yàn)榕臄z的相片跟實(shí)際顯示的圖像是鏡像關(guān)系,所以在圖片上獲取的兩眼中間點(diǎn)跟手機(jī)上顯示的是相反方向
canvas.drawRect((int) (240 - midPoint.x - eyesDistance)
* scale_x, (int) (midPoint.y * scale_y),
(int) (240 - midPoint.x + eyesDistance) * scale_x,
(int) (midPoint.y + 3 * eyesDistance) * scale_y, paint);
}
holder.unlockCanvasAndPost(canvas);
}
}
}
重要的地方
1. holder = getHolder();獲取surfaceholder與我們要繪制人臉?lè)秶漠?huà)布進(jìn)行綁定Canvas canvas = holder.lockCanvas();這樣我們就可以愉快的進(jìn)行繪制了,當(dāng)然前提是我們要拿到人臉的坐標(biāo)位置。
2. 還有重要的一點(diǎn),就是要讓我們用來(lái)蓋在Carema上的Surfaceview可以同名,并且設(shè)置起在視圖樹(shù)的層級(jí)為最高。
holder.setFormat(PixelFormat.TRANSPARENT); this.setZOrderOnTop(true);
第二步
就是我們對(duì)人臉進(jìn)行檢測(cè)了,當(dāng)然前提是我們要獲得幀圖
public class FaceRecognitionDemoActivity extends Activity implements
OnClickListener {
private SurfaceView preview;
private Camera camera;
private Camera.Parameters parameters;
private int orientionOfCamera;// 前置攝像頭的安裝角度
private int faceNumber;// 識(shí)別的人臉數(shù)
private FaceDetector.Face[] faces;
private FindFaceView mFindFaceView;
private ImageView iv_photo;
private Button bt_camera;
TextView mTV;
/**
* Called when the activity is first created.
*/
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
}
@Override
protected void onStart() {
super.onStart();
iv_photo = (ImageView) findViewById(R.id.iv_photo);
bt_camera = (Button) findViewById(R.id.bt_camera);
mTV = (TextView) findViewById(R.id.show_count);
bt_camera.setOnClickListener(this);
mFindFaceView = (FindFaceView) findViewById(R.id.my_preview);
preview = (SurfaceView) findViewById(R.id.preview);
// 設(shè)置緩沖類型(必不可少)
preview.getHolder().setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
// 設(shè)置surface的分辨率
preview.getHolder().setFixedSize(176, 144);
// 設(shè)置屏幕常亮(必不可少)
preview.getHolder().setKeepScreenOn(true);
preview.getHolder().addCallback(new SurfaceCallback());
}
private final class MyPictureCallback implements PictureCallback {
@Override
public void onPictureTaken(byte[] data, Camera camera) {
try {
Bitmap bitmap = BitmapFactory.decodeByteArray(data, 0,
data.length);
Matrix matrix = new Matrix();
matrix.setRotate(-90);
Bitmap bmp = Bitmap.createBitmap(bitmap, 0, 0, bitmap
.getWidth(), bitmap.getHeight(), matrix, true);
bitmap.recycle();
iv_photo.setImageBitmap(bmp);
camera.startPreview();
} catch (Exception e) {
e.printStackTrace();
}
}
}
private final class SurfaceCallback implements Callback {
@Override
public void surfaceChanged(SurfaceHolder holder, int format, int width,
int height) {
if (camera != null) {
parameters = camera.getParameters();
parameters.setPictureFormat(PixelFormat.JPEG);
// 設(shè)置預(yù)覽區(qū)域的大小
parameters.setPreviewSize(width, height);
// 設(shè)置每秒鐘預(yù)覽幀數(shù)
parameters.setPreviewFrameRate(20);
// 設(shè)置預(yù)覽圖片的大小
parameters.setPictureSize(width, height);
parameters.setJpegQuality(80);
}
}
@Override
public void surfaceCreated(SurfaceHolder holder) {
int cameraCount = 0;
Camera.CameraInfo cameraInfo = new Camera.CameraInfo();
cameraCount = Camera.getNumberOfCameras();
//設(shè)置相機(jī)的參數(shù)
for (int i = 0; i < cameraCount; i++) {
Camera.getCameraInfo(i, cameraInfo);
if (cameraInfo.facing == Camera.CameraInfo.CAMERA_FACING_FRONT) {
try {
camera = Camera.open(i);
camera.setPreviewDisplay(holder);
setCameraDisplayOrientation(i, camera);
//最重要的設(shè)置 幀圖的回調(diào)
camera.setPreviewCallback(new MyPreviewCallback());
camera.startPreview();
} catch (Exception e) {
e.printStackTrace();
}
}
}
}
@Override
public void surfaceDestroyed(SurfaceHolder holder) {
//記得釋放,避免OOM和占用
if (camera != null) {
camera.setPreviewCallback(null);
camera.stopPreview();
camera.release();
camera = null;
}
}
}
private class MyPreviewCallback implements PreviewCallback {
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
//這里需要注意,回調(diào)出來(lái)的data不是我們直接意義上的RGB圖 而是YUV圖,因此我們需要
//將YUV轉(zhuǎn)化為bitmap再進(jìn)行相應(yīng)的人臉檢測(cè),同時(shí)注意必須使用RGB_565,才能進(jìn)行人臉檢測(cè),其余無(wú)效
Camera.Size size = camera.getParameters().getPreviewSize();
YuvImage yuvImage = new YuvImage(data, ImageFormat.NV21,
size.width, size.height, null);
ByteArrayOutputStream baos = new ByteArrayOutputStream();
yuvImage.compressToJpeg(new Rect(0, 0, size.width, size.height),
80, baos);
byte[] byteArray = baos.toByteArray();
detectionFaces(byteArray);
}
}
/**
* 檢測(cè)人臉
*
* @param data 預(yù)覽的圖像數(shù)據(jù)
*/
private void detectionFaces(byte[] data) {
BitmapFactory.Options options = new BitmapFactory.Options();
Bitmap bitmap1 = BitmapFactory.decodeByteArray(data, 0, data.length,
options);
int width = bitmap1.getWidth();
int height = bitmap1.getHeight();
Matrix matrix = new Matrix();
Bitmap bitmap2 = null;
FaceDetector detector = null;
//設(shè)置各個(gè)角度的相機(jī),這樣我們的檢測(cè)效果才是最好
switch (orientionOfCamera) {
case 0:
//初始化人臉檢測(cè)(下同)
detector = new FaceDetector(width, height, 10);
matrix.postRotate(0.0f, width / 2, height / 2);
// 以指定的寬度和高度創(chuàng)建一張可變的bitmap(圖片格式必須是RGB_565,不然檢測(cè)不到人臉)
bitmap2 = Bitmap.createBitmap(width, height, Bitmap.Config.RGB_565);
break;
case 90:
detector = new FaceDetector(height, width, 1);
matrix.postRotate(-270.0f, height / 2, width / 2);
bitmap2 = Bitmap.createBitmap(height, width, Bitmap.Config.RGB_565);
break;
case 180:
detector = new FaceDetector(width, height, 1);
matrix.postRotate(-180.0f, width / 2, height / 2);
bitmap2 = Bitmap.createBitmap(width, height, Bitmap.Config.RGB_565);
break;
case 270:
detector = new FaceDetector(height, width, 1);
matrix.postRotate(-90.0f, height / 2, width / 2);
bitmap2 = Bitmap.createBitmap(height, width, Bitmap.Config.RGB_565);
break;
}
//設(shè)置支持的面數(shù)(最大支持檢測(cè)多少人的臉 ,可以根據(jù)需要調(diào)整,不過(guò)需要與findFaces中的參數(shù)數(shù)值相同,否則會(huì)拋出異常)
faces = new FaceDetector.Face[10];
Paint paint = new Paint();
paint.setDither(true);
Canvas canvas = new Canvas();
canvas.setBitmap(bitmap2);
canvas.setMatrix(matrix);
// 將bitmap1畫(huà)到bitmap2上(這里的偏移參數(shù)根據(jù)實(shí)際情況可能要修改)
canvas.drawBitmap(bitmap1, 0, 0, paint);
//這里通過(guò)向findFaces中傳遞幀圖轉(zhuǎn)化后的bitmap和最大檢測(cè)的人臉數(shù)face,返回檢測(cè)后的人臉數(shù)
faceNumber = detector.findFaces(bitmap2, faces);
mTV.setText("facnumber----" + faceNumber);
mTV.setTextColor(Color.RED);
//這里就是我們的人臉識(shí)別,繪制識(shí)別后的人臉區(qū)域的類
if (faceNumber != 0) {
mFindFaceView.setVisibility(View.VISIBLE);
mFindFaceView.drawRect(faces, faceNumber);
} else {
mFindFaceView.setVisibility(View.GONE);
}
bitmap2.recycle();
bitmap1.recycle();
}
/**
* 設(shè)置相機(jī)的顯示方向(這里必須這么設(shè)置,不然檢測(cè)不到人臉)
*
* @param cameraId 相機(jī)ID(0是后置攝像頭,1是前置攝像頭)
* @param camera 相機(jī)對(duì)象
*/
private void setCameraDisplayOrientation(int cameraId, Camera camera) {
Camera.CameraInfo info = new Camera.CameraInfo();
Camera.getCameraInfo(cameraId, info);
int rotation = getWindowManager().getDefaultDisplay().getRotation();
int degree = 0;
switch (rotation) {
case Surface.ROTATION_0:
degree = 0;
break;
case Surface.ROTATION_90:
degree = 90;
break;
case Surface.ROTATION_180:
degree = 180;
break;
case Surface.ROTATION_270:
degree = 270;
break;
}
orientionOfCamera = info.orientation;
int result;
if (info.facing == Camera.CameraInfo.CAMERA_FACING_FRONT) {
result = (info.orientation + degree) % 360;
result = (360 - result) % 360;
} else {
result = (info.orientation - degree + 360) % 360;
}
camera.setDisplayOrientation(result);
}
@Override
public void onClick(View v) {
switch (v.getId()) {
case R.id.bt_camera:
if (camera != null) {
try {
camera.takePicture(null, null, new MyPictureCallback());
} catch (Exception e) {
e.printStackTrace();
}
}
break;
}
}
}
到這里我們的人臉識(shí)別就已經(jīng)大功告成。demo地址
如果您想了解更多關(guān)于人臉識(shí)別方面的只是,先去關(guān)注并了解OpenCV。
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Android在項(xiàng)目中接入騰訊TBS瀏覽器WebView的教程與注意的地方
今天小編就為大家分享一篇關(guān)于Android在項(xiàng)目中接入騰訊TBS瀏覽器WebView的教程與注意的地方,小編覺(jué)得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來(lái)看看吧2018-10-10
Android Studio之Debug運(yùn)行期代碼植入的方法
這篇文章主要介紹了Android Studio之Debug運(yùn)行期代碼植入的方法,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-07-07
詳解Android運(yùn)行時(shí)權(quán)限及APP適配方法
本篇文章給大家詳細(xì)分析了Android運(yùn)行時(shí)權(quán)限及APP適配方法,并把重要知識(shí)點(diǎn)做了說(shuō)明,有需要的朋友參考下。2018-03-03
教你五分鐘實(shí)現(xiàn)Android超漂亮的刻度輪播控件實(shí)例教程
說(shuō)到輪播圖,想必大家都不陌生,下面這篇文章主要給大家介紹了關(guān)于如何利用五分鐘快速實(shí)現(xiàn)一款超漂亮的Android刻度輪播控件的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來(lái)一起看看吧2018-09-09
Android開(kāi)發(fā)者常見(jiàn)的UI組件總結(jié)大全
Android開(kāi)發(fā)中UI組件是構(gòu)建用戶界面的基本元素,下面這篇文章主要給大家介紹了關(guān)于Android開(kāi)發(fā)者常見(jiàn)的UI組件總結(jié)的相關(guān)資料,文中通過(guò)代碼介紹的非常詳細(xì),需要的朋友可以參考下2024-04-04
Android動(dòng)態(tài)繪制餅狀圖的示例代碼
這篇文章主要介紹了Android動(dòng)態(tài)繪制餅狀圖的示例代碼,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-03-03
Android 狀態(tài)欄虛擬導(dǎo)航鍵透明效果的實(shí)現(xiàn)方法
這篇文章主要介紹了Android 狀態(tài)欄虛擬導(dǎo)航鍵透明效果的實(shí)現(xiàn)方法,非常不錯(cuò),具有參考借鑒價(jià)值,需要的朋友可以參考下2017-03-03

