①opencv读取数据集
②dlib人脸检测器定位人脸
③获取每张图片的HOG特征向量组
④利用SVM进行训练
⑤得出模型并保存
①读取模型,读取照片或者打开摄像头进行实时检测
②将每一帧或者图片的HOG特征值提取出来并预测
③得出结果并显示出来
在之前的虚拟环境安装tensorflow、keras、h5py包和数据集下载数据集genk4k
(1)模型训练
# 导入包 import numpy as np import cv2 import dlib import random#构建随机测试集和训练集 from sklearn.svm import SVC #导入svm from sklearn.svm import LinearSVC #导入线性svm from sklearn.pipeline import Pipeline #导入python里的管道 import os import joblib #保存模型 from sklearn.preprocessing import StandardScaler,PolynomialFeatures #导入多项式回归和标准化 import tqdm folder_path='D:/rgzn/jupyter/genki4k/' label='labels.txt'#标签文件 pic_folder='files/'#图片文件路径 #获得默认的人脸检测器和训练好的人脸68特征点检测器 def get_detector_and_predicyor(): #使用dlib自带的frontal_face_detector作为我们的特征提取器 detector = dlib.get_frontal_face_detector() """ 功能:人脸检测画框 参数:PythonFunction和in Classes in classes表示采样次数,次数越多获取的人脸的次数越多,但更容易框错 返回值是矩形的坐标,每个矩形为一个人脸(默认的人脸检测器) """ #返回训练好的人脸68特征点检测器 predictor = dlib.shape_predictor('D://shape_predictor_68_face_landmarks.dat') return detector,predictor #获取检测器 detector,predictor=get_detector_and_predicyor() def cut_face(img,detector,predictor): #截取面部 img_gry=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) rects = detector(img_gry, 0) if len(rects)!=0: mouth_x=0 mouth_y=0 landmarks = np.matrix([[p.x, p.y] for p in predictor(img,rects[0]).parts()]) for i in range(47,67):#嘴巴范围 mouth_x+=landmarks[i][0,0] mouth_y+=landmarks[i][0,1] mouth_x=int(mouth_x/20) mouth_y=int(mouth_y/20) #裁剪图片 img_cut=img_gry[mouth_y-20:mouth_y+20,mouth_x-20:mouth_x+20] return img_cut else: return 0#检测不到人脸返回0 #提取特征值 def get_feature(files_train,face,face_feature): for i in tqdm.tqdm(range(len(files_train))): img=cv2.imread(folder_path+pic_folder+files_train[i]) cut_img=cut_face(img,detector,predictor) if type(cut_img)!=int: face.append(True) cut_img=cv2.resize(cut_img,(64,64)) #padding:边界处理的padding padding=(8,8) winstride=(16,16) hogdescrip=hog.compute(cut_img,winstride,padding).reshape((-1,)) face_feature.append(hogdescrip) else: face.append(False)#没有检测到脸的 face_feature.append(0) def filtrate_face(face,face_feature,face_site): #去掉检测不到脸的图片的特征并返回特征数组和相应标签 face_features=[] #获取标签 label_flag=[] with open(folder_path+label,'r') as f: lines=f.read().splitlines() #筛选出能检测到脸的,并收集对应的label for i in tqdm.tqdm(range(len(face_site))): if face[i]:#判断是否检测到脸 #pop之后要删掉当前元素,后面的元素也要跟着前移,所以每次提取第一位就行了 face_features.append(face_feature.pop(0)) label_flag.append(int(lines[face_site[i]][0])) else: face_feature.pop(0) datax=np.float64(face_features) datay=np.array(label_flag) return datax,datay def PolynomialSVC(degree,c=10):#多项式svm return Pipeline([ # 将源数据 映射到 3阶多项式 ("poly_features", PolynomialFeatures(degree=degree)), # 标准化 ("scaler", StandardScaler()), # SVC线性分类器 ("svm_clf", LinearSVC(C=10, loss="hinge", random_state=42,max_iter=10000)) ]) #svm高斯核 def RBFKernelSVC(gamma=1.0): return Pipeline([ ('std_scaler',StandardScaler()), ('svc',SVC(kernel='rbf',gamma=gamma)) ]) def train(files_train,train_site):#训练 ''' files_train:训练文件名的集合 train_site :训练文件在文件夹里的位置 ''' #是否检测到人脸 train_face=[] #人脸的特征数组 train_feature=[] #提取训练集的特征数组 get_feature(files_train,train_face,train_feature) #筛选掉检测不到脸的特征数组 train_x,train_y=filtrate_face(train_face,train_feature,train_site) svc=PolynomialSVC(degree=1) svc.fit(train_x,train_y) return svc#返回训练好的模型 def test(files_test,test_site,svc):#预测,查看结果集 ''' files_train:训练文件名的集合 train_site :训练文件在文件夹里的位置 ''' #是否检测到人脸 test_face=[] #人脸的特征数组 test_feature=[] #提取训练集的特征数组 get_feature(files_test,test_face,test_feature) #筛选掉检测不到脸的特征数组 test_x,test_y=filtrate_face(test_face,test_feature,test_site) pre_y=svc.predict(test_x) ac_rate=0 for i in range(len(pre_y)): if(pre_y[i]==test_y[i]): ac_rate+=1 ac=ac_rate/len(pre_y)*100 print("准确率为"+str(ac)+"%") return ac
(2)检测微笑
def test1(files_test,test_site,svc):#预测,查看结果集 ''' files_train:训练文件名的集合 train_site :训练文件在文件夹里的位置 ''' #是否检测到人脸 test_face=[] #人脸的特征数组 test_feature=[] #提取训练集的特征数组 get_feature(files_test,test_face,test_feature) #筛选掉检测不到脸的特征数组 test_x,test_y=filtrate_face(test_face,test_feature,test_site) pre_y=svc.predict(test_x) tp=0 tn=0 for i in range(len(pre_y)): if pre_y[i]==test_y[i] and pre_y[i]==1: tp+=1 elif pre_y[i]==test_y[i] and pre_y[i]==0: tn+=1 f1=2*tp/(tp+len(pre_y)-tn) print(f1) svc7=joblib.load('D:/rgzn/jupyter/genki4k/save/smile9(hog).pkl') site=[i for i in range(4000)] #训练所用的样本所在的位置 train_site=random.sample(site,3600) #预测所用样本所在的位置 test_site=[] for i in range(len(site)): if site[i] not in train_site: test_site.append(site[i]) #测试集 files_test=[] for i in range(len(test_site)): files_test.append(files[test_site[i]]) test1(files_test,test_site,svc7) def smile_detector(img,svc): cut_img=cut_face(img,detector,predictor) a=[] if type(cut_img)!=int: cut_img=cv2.resize(cut_img,(64,64)) #padding:边界处理的padding padding=(8,8) winstride=(16,16) hogdescrip=hog.compute(cut_img,winstride,padding).reshape((-1,)) a.append(hogdescrip) result=svc.predict(a) a=np.array(a) return result[0] else : return 2
(3)结果
参考链接:
https://blog.csdn.net/zjszd/article/details/122074585?spm=1001.2014.3001.5501
https://blog.csdn.net/qq_61682562/article/details/121940587?spm=1001.2014.3001.5501