这篇文章主要讲解了“OpenCV怎么用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“OpenCV怎么用”吧!
有没有想过让蒙娜丽莎跟着你的表情动,来一番亲切的交流?
Aliaksandr的一阶运动模型(First Order Motion Model)可以实现,但是实现过程非常复杂且繁琐。
一阶运动模型功能强大,可以在未经预训练的数据集上对图像和视频进行特效生成,但代价是安装配置比较繁琐。
能不能简单一点,再简单一点?
印度一位程序员阿南德·帕瓦拉(Anand Pawara)设计了基于OpenCV实现的实时动画特效。
毕竟OpenCV是成名已久的跨平台视觉库,是事实上的计算机视觉领域的标准库。
项目中涉及的人脸识别、动作识别和运动跟踪,均在OpenCV库中原生支持。
1、安装依赖模块
安装依赖模块:
pip install -r requirements.txt
安装pytorch 1.0.0 :
pip install torch===1.0.0 torchvision===0.2.1 -f https://download.pytorch.org/whl/cu100/torch_stable.html
2、下载配置文件(如果不能下载,文件链接在文末)
gdown —id 1wCzJP1XJNB04vEORZvPjNz6drkXm5AUK
3、运行程序
运行文件 :
python image_animation.py -i path_to_input_file -c path_to_checkpoint
针对摄像头的实时特效生成 :
python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar Run application from video file : python image_animation.py -i path_to_input_file -c path_to_checkpoint -v path_to_video_file
针对既有视频的特效生成 :
python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar -v .\video_input\test1.mp4
如果你想上手试试,只需要调整相关配置文件即可。
模型分为两种使用模式,一种是较为常规的导入视频常规方法,另外一种就是实时生成视频特效。
但是,请注意,一定要使用pytorch 1.0.0版本,因为更高的版本在后端依赖的一阶模型上存在问题。
按照作者的后续计划,会推出客户端程序,并且会增加假声(deepfake voice)功能。
阿南德所做的工作是简化现有的一阶运动模型(First Order Motion Model),使用OpenCV对视频进行特效生成。
项目的后端支持由OpenCV库完成,避免使用复杂的模型,降低使用门槛。
按照作者观点,使用这个模型只需要对一类数据集进行训练后,便可应用到对其全部事物上去,即具有较好的泛化能力。
不同于原一阶模型的多个数据集测试效果,现在阿南德实时动态特效模型还只在人脸数据集上进行测试,后续后持续增加其他数据集。
这个模型的特点是易用,配置非常简单,基本可以开箱即用,即使是训练自己的数据集也会比较简单。
因为立足于对现有资源进行优化配置,操作简易,功能强大。
当然,简单也会带来问题,比如现在数据集较为单一,针对的主要是人脸数据集。
感谢各位的阅读,以上就是“OpenCV怎么用”的内容了,经过本文的学习后,相信大家对OpenCV怎么用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。