如何使用Python+OpenCV+Keras實現(xiàn)無口罩車輛駕駛員懲罰生成
介紹
我們知道,在當前形勢下,我們正在逐步穩(wěn)定地克服大流行病的情況,而且情況每天都在改善。但是,眾所周知,即使已經(jīng)開始接種疫苗,徹底根除該病毒仍需花費很多年。因此,為安全起見,在接下來的幾年中,我們所有人都可能會習(xí)慣于戴口罩。就違反交通規(guī)則而言,政府仍然嚴格對在路上開車不戴口罩的人處以罰款。建立一個系統(tǒng),能夠追蹤所有交通違法者的細節(jié),提高公民的意識和紀律,是一個非常有用的辦法。還可以通過另外創(chuàng)建一個儀表板監(jiān)視程序來跟蹤該交通規(guī)則違反者的增加或減少,在給定期間內(nèi)收集罰款,確定主要違反規(guī)則的人群,從而改善該系統(tǒng)。工作范圍作為代碼實現(xiàn)的一部分,我們計劃設(shè)計一個模型,將圖像分類為戴口罩的和沒戴口罩的。對于獲得的屬于沒戴口罩類別的圖像,我們獲取車輛號牌的圖像,并嘗試提取車輛詳細信息。車牌識別使用第二個模型完成,該模型接收帶有車牌的輸入作為汽車圖像。一旦完成了車輛ID,我們便將詳細信息傳遞到虛擬數(shù)據(jù)庫,該數(shù)據(jù)庫包含車牌持有人的數(shù)據(jù)以及車輛的詳細信息。根據(jù)數(shù)據(jù)驗證,我們將產(chǎn)生罰款,該罰款將直接發(fā)送到違規(guī)者的家庭住址。軟件架構(gòu)
網(wǎng)頁抓取圖片
項目始于確定要使用的數(shù)據(jù)集的問題。在我們的項目中,在線沖浪幾乎無法為我們提供可用于我們項目的現(xiàn)有數(shù)據(jù)集。因此,我們決定應(yīng)用網(wǎng)絡(luò)抓取收集戴口罩和沒戴口罩的圖像。我們使用Beautiful Soap and Requests庫從網(wǎng)站下載圖像并將其保存到包含戴口罩和沒帶口罩駕駛員的不同文件夾中。我們從下面的URL中提取了數(shù)據(jù),這些URL由已屏蔽圖像和未屏蔽圖像組成。鏈接url1 = https://www.gettyimages.in/photos/driving-mask?page=鏈接url2 = https://www.gettyimages.in/photos/driving-without-mask?page=下面是一段代碼,演示了Web上的圖像抓取。from bs4 import *
import requests as rq
import os
url1 = 'https://www.gettyimages.in/photos/driving-mask?page='
url2 = '&phrase=driving%20mask&sort=mostpopular'
url_list=[]
Links = []
for i in range(1,56):
full_url = url1+str(i)+url2
url_list.a(chǎn)ppend(full_url)
for lst in url_list:
r2 = rq.get(lst)
soup = BeautifulSoup(r2.text, 'html.parser')
x=soup.select('img[src^="https://media.gettyimages.com/photos/"]')
for img in x:
Links.a(chǎn)ppend(img['src'])
print(len(Links))
for index, img_link in enumerate(Links):
if i <= len(Links):
img_data = rq.get(img_link).content
with open("Masked_Drivers/" + str(index + 1) + '.jpg', 'wb+') as f:
f.write(img_data)
i += 1
圖像預(yù)處理在將圖像發(fā)送到模型之前,我們需要應(yīng)用一些清理技術(shù),例如圖像大小調(diào)整圖像的灰度和將像素重新縮放為較低的值。之后,圖像和目標將保存在陣列中。import cv2,os
data_path='Dataset'
categories=os.listdir(data_path)
labels=[i for i in range(len(categories))]
label_dict=dict(zip(categories,labels)) #empty dictionary
print(label_dict)
print(categories)
print(labels)
img_size=100
data=[]
target=[]
img_size=100
data=[]
target=[]
for category in categories:
folder_path=os.path.join(data_path,category)
img_names=os.listdir(folder_path)
for img_name in img_names:
img_path=os.path.join(folder_path,img_name)
img=cv2.imread(img_path)
try:
gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
#Coverting the image into gray scale
resized=cv2.resize(gray,(img_size,img_size))
#resizing the gray scale into 50x50, since we need a fixed common size for all the images in the dataset
data.a(chǎn)ppend(resized)
target.a(chǎn)ppend(label_dict[category])
#appending the image and the label(categorized) into the list (dataset)
except Exception as e:
print('Exception:',e)
import numpy as np
data=np.a(chǎn)rray(data)/255.0
data=np.reshape(data,(data.shape[0],img_size,img_size,1))
target=np.a(chǎn)rray(target)
from keras.utils import np_utils
new_target=np_utils.to_categorical(target)
np.save('data',data)
np.save('target',new_target)
建立模型在這里,我們使用Keras的Sequential設(shè)計CNN模型。使用大約200個神經(jīng)元作為輸入來構(gòu)建CNN。應(yīng)用激活函數(shù)和最大池化技術(shù)后,我們將獲得另一組輸出特征,這些特征將通過Conv2D的另一層傳遞。最后,我們從softmax中獲得2個輸出,它們代表輸入圖像的戴口罩或未戴口罩狀態(tài)。from keras.models import Sequential
from keras.layers import Dense,Activation,F(xiàn)latten,Dropout
from keras.layers import Conv2D,MaxPooling2D
from keras.callbacks import ModelCheckpoint
model=Sequential()
model.a(chǎn)dd(Conv2D(200,(3,3),input_shape=data.shape[1:]))
model.a(chǎn)dd(Activation('relu'))
model.a(chǎn)dd(MaxPooling2D(pool_size=(2,2)))
model.a(chǎn)dd(Conv2D(100,(3,3)))
model.a(chǎn)dd(Activation('relu'))
model.a(chǎn)dd(MaxPooling2D(pool_size=(2,2)))
model.a(chǎn)dd(Flatten())
model.a(chǎn)dd(Dropout(0.5))
model.a(chǎn)dd(Dense(50,activation='relu'))
model.a(chǎn)dd(Dense(2,activation='softmax'))
model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
訓(xùn)練和測試模型構(gòu)建CNN模型后,我們將數(shù)據(jù)分為訓(xùn)練集和測試集。后來,我們通過設(shè)置各種參數(shù)(例如時期,訓(xùn)練集,驗證集和驗證拆分值),在訓(xùn)練和測試數(shù)據(jù)上擬合CNN模型。from sklearn.model_selection import train_test_split
train_data,test_data,train_target,test_target=train_test_split(data,target,test_size=0.4)
checkpoint = ModelCheckpoint('model-{epoch:03d}.model',monitor='val_loss',verbose=0,save_best_only=True,mode='auto')
history=model.fit(train_data,train_target,epochs=20,callbacks=[checkpoint],validation_split=0.1)
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-12.26立即報名>>> 【在線會議】村田用于AR/VR設(shè)計開發(fā)解決方案
-
1月8日火熱報名中>> Allegro助力汽車電氣化和底盤解決方案優(yōu)化在線研討會
-
即日-1.14火熱報名中>> OFweek2025中國智造CIO在線峰會
-
即日-1.24立即參與>>> 【限時免費】安森美:Treo 平臺帶來出色的精密模擬
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容