如何通过 Python 和 OpenCV 实现目标数量监控?
作者 | 李秋键
责编 | 刘静
出品 | CSDN(ID:CSDNnews)
今天我们将利用python+OpenCV实现对视频中物体数量的监控,达到视频监控的效果,比如洗煤厂的监控水龙头的水柱颜色,当水柱为黑色的超过了一半,那么将说明过滤网发生了故障。当然不仅如此,我们看的是图像视频处理的技巧,你也可以将项目迁移到其他地方等,这仅仅是一个例子而已。我们知道计算机视觉中关于图像识别有四大类任务:
分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。
定位-Location:解决“在哪里?”的问题,即定位出这个目标的的位置。
检测-Detection:解决“是什么?在哪里?”的问题,即定位出这个目标的的位置并且知道目标物是什么。
分割-Segmentation:分为实例的分割(Instance-level)和场景分割(Scene-level),解决“每一个像素属于哪个目标物或场景”的问题。
而定位不仅需要找到物体的位置在哪里,还需要能够统计目标的数目以及物体状态。
除了图像分类以外,目标检验要解决问题的架构难题是:
1.目标有可能经常出现在影像的任何方位;
2.目标有各种有所不同的尺寸;
3.目标有可能有各种有所不同的外形。
如果用矩形框来界定目的,则长方形有有所不同的清晰度。由于目的的清晰度有所不同,因此使用经典之作的转动视窗+影像图形的计划解决问题标准化目的检验难题的生产成本太低。近几年来,目标检测算法取得了很大的突破。比较流行的算法可以分为两类,一类是基于Region Proposal的R-CNN系算法(R-CNN,Fast R-CNN, Faster R-CNN等),它们是two-stage的,需要先算法产生目标候选框,也就是目标位置,然后再对候选框做分类与回归。而另一类是Yolo,SSD这类one-stage算法,其仅仅使用一个卷积神经网络CNN直接预测不同目标的类别与位置。第一类方法是准确度高一些,但是速度慢,但是第二类算法是速度快,但是准确性要低一些。那么今天我们的项目并不会太多的讲解各种算法,而是我们的核心主题,目标数量识别。
那么我们将如何进行实现呢
多说无益,下面可以开始实现我们的项目。
首先导入相关的库
importcv2
fromPIL importImage
fromPIL importImageDraw,ImageFont
importnumpy asnp
接着我们需要把水龙头流出水柱的部分提取出来,即需要把图片预先处理成这样,作为背景图来用,名为3ji.jpg如图所示:
然后通过图像作差的方法找到水柱的部分,首先就需要将图像转彩灰度图然后高斯模糊便于计算,当然其实不这样也是可以的。其中2.jpg是测试的图片,
代码如下:
'''3ji是背景图不可换,调试换另一个图片,3ji自己用画图找到水的位置清除掉水柱即可,所以说摄像头不能动'''
firstframe=cv2.imread( "3ji.jpg")
firstframe= cv2.cvtColor(firstframe, cv2.COLOR_BGR2GRAY)
firstframe= cv2.GaussianBlur(firstframe, (21, 21), 0)
secondframe0=cv2.imread( "2.jpg")
secondframe0= cv2.cvtColor(secondframe0, cv2.COLOR_BGR2GRAY)
secondframe= cv2.GaussianBlur(secondframe0, (21, 21), 0)
frameDelta = cv2.absdiff(firstframe, secondframe)
x,y=frameDelta.shape
print(x,y)
接着通过边缘检测找到水柱边界,方便查看。
#frameDelta和canny一个是区域一个是轮廓
img= cv2.GaussianBlur(frameDelta,( 3, 3), 0)
canny= cv2.Canny(img, 0, 100)
定义水柱总面积变量。清水面积变量,ss数组存储像素值位置
area=0 #6687,总面积
qingarea=0
ss=[]
然后画出轮廓,并记录水柱处像素值得位置
#画轮廓,存储要识别的像素值位置,记录在ss数组中
fori inrange(x):
forj inrange(y):
ifany(frameDelta[i,j]!=[0,0,0]): #白色的时候,占位
ss.append([i,j])
然后以原图加轮廓图显示,图片相加即可:
canny0=cv2.add(secondframe0,canny)
接着根据像素值大小判断颜色,通过调试这个项目的阈值是50
#判断水柱颜色,清水占多少像素
fort inss:
k,l=t
area=area+1
ifcanny0[k, l] > 50:
print(canny0[k,l])
qingarea+=1
接着统计黑色水柱占比率为多少
deta=(qingarea/area)*100
print(qingarea)
pred= "清水占比为"+str(deta)+ "%"
print(pred)
最后输出图像结果:
cv2.imwrite( "pred.jpg",canny0)
canny0=cv2.imread( "pred.jpg")
img_PIL = Image.fromarray(cv2.cvtColor(canny0, cv2.COLOR_BGR2RGB))
myfont = ImageFont.truetype(r'C:/Windows/Fonts/simfang.ttf', 40)
draw = ImageDraw.Draw(img_PIL)
draw.text((200, 10), pred, font=myfont, fill=(255,23,140))
img_OpenCV = cv2.cvtColor(np.asarray(img_PIL), cv2.COLOR_RGB2BGR)
cv2.imshow( "frame", img_OpenCV)
key = cv2.waitKey(0)
最终达到的演示效果如图所示:
清水占比96%,还是比较准确的
清水占比38%,黑水占比62%,也基本准确。
当然这仅仅是一个思路的问题,至少目前为止网上还没有对物体数目去监控的项目例子,尽管并不是如此高深,但是却是一个很好的探究方向。不仅仅是智能采矿的需要,也可以是智能农业或者智能畜牧业等方面监控的一个想法。当然大家也是可以再次基础上修改完善代码,完整的代码上面已经给出。伴随着移动互联网、手机及各交友的平台的较慢持续发展,照片的广泛传播幅度大大增强,广泛传播范围内也日益扩展。比起书写、视频、录像等广泛传播方式,照片广泛传播极具“点睛”视觉效果,合乎节奏贫困下人们高效的读者方法。
当照片给人们带给快捷的数据纪录和共享方法的同时,照片普遍地广泛传播在社会大众视线下,适当的难题也接踵而来。书写记述,使用者可以精彩通过关键字搜寻提供意愿数据,而当照片记述,使用者难以必要通过搜寻照片索引到可借助数据。
科技进步的变革常常与解决的表达意见如影随形,在使用者痛点下,亟需高科技的改进创意,此自然环境下涌现的图像识别新技术之后变得尤为重要。由此也可见计算机视觉的日益高涨的地位。
作者简介:李秋键,CSDN 博客专家,CSDN达人课作者。
【End】
相关文章
-
出去千万别说UI和美工是一个职业,千万别暴露你的缺点哦
文章来源:老铁商城2019-10-31 -
我优化多年的 C 语言竟然被 80行Haskell 打败了?
文章来源:老铁商城2019-10-20 -
当程序员遇到中秋节,会产生怎样的化学反应......
文章来源:老铁商城2019-09-18 -
淘宝、京东这些网站的哪个部分用了web前端技术?你能学会吗?
文章来源:老铁商城2019-09-18 -
Linux和哪些行业有关?2019Linux运维必备哪些技能?
文章来源:老铁商城2019-09-18 -
公认最具影响力的4种编程语言!平均薪资20K,Java第一
文章来源:老铁商城2019-09-18 -
PYPL 9 月编程排行榜:Python第一,继续称霸!就业薪资怎么样?
文章来源:老铁商城2019-09-18