文章作者:周兆靖 英特尔高级应用工程师
文章指导:方亮, 郭叶军
1本文目的
本文将会介绍如何使用英特尔 开发者套件——爱克斯开发板快速搭建 rtmp 流媒体服务器,并利用 ffmpeg* 实现视频推流的功能。由于 ffmpeg 后端支持 openvino 赋能,所以在视频推流的基础上,我们可以部署ai模型实现对视频流的 ai 处理。并且,我们将充分利用cpu所携带的集成显卡(igpu)进行视频的编解码加速和 ai 推理。
2项目简介
图:intel devkit rtmp 推流服务器项目流程图
项目介绍:通过 ffmpeg 读取摄像头视频流、本地视频或者网络视频并解码,解码后调用ffmpeg包含的视频处理功能,包括了视频剪辑,视频拼接,视频水印等等,并且能够支持 openvino 工具套件作为后端对输入视频进行ai处理。由于 ffmpeg 可以兼容软硬编解码库,所以可以选择cpu或者集成显卡(igpu)加速视频的编解码等功能。最后将处理完成的视频通过 ffmpeg 推流至在本地搭建好的 rtmp 流媒体服务器
(simple realtime server)中。若在局域网中,客户可以根据 ip 地址,直接拉取视频流进行观看。若在公网中,该视频流将传输至公开视频流网站,通过公网节点进行广播。
2.1英特尔 开发者套件——爱克斯开发板简介
英特尔 开发者套件—— aixboard(爱克斯板*)开发板是专为支持入门级边缘 ai 应用程序所设计的嵌入式硬件,它能够满足开发者对于人工智能学习、开发、实训等应用场景的使用需求。
基于 x86 平台所设计的开发板,可支持 linux ubuntu 及完整版 windows 操作系统,很方便开发者进行软硬件开发,以及尝试所有 x86 平台能够应用的软件功能。开发板搭载一颗英特尔 赛扬 n5105 4核4线程处理器,睿频可达2.9ghz,且内置英特尔 超核芯显卡,集成显卡运行频率为450mhz至800mhz,含有24个执行单元,分辨率最大支持4k60帧,同时支持英特尔 quick sync video 技术可以快速转换便携式多媒体播放器的视频,还能提供在线共享、视频编辑及视频制作功能。板载 64gb emmc存储及 lpddr4x 2933mhz
(4gb/6gb/8gb), 内置蓝牙和 wi-fi模组,支持usb 3.0、hdmi视频输出、3.5mm音频接口,1000mbps 以太网口。板子的接口丰富,还可以外拓各种传感器模块。
此外, 其接口与 jetson nano 载板兼容,gpio 与树莓派兼容,能够最大限度地复用树莓派、jetson nano 等生态资源,无论是摄像头物体识别,3d 打印,还是 cnc 实时插补控制都能稳定运行。可作为边缘计算引擎用于人工智能产品验证、开发;也可以作为域控核心用于机器人产品开发。
英特尔 开发者套件的 x86 架构可以支持完整的 windows 系统,不需要特殊优化就能直接获得 visual studio、openvino、opencv 等最强大的软件支持,最成熟的开发生态,数百万的开源项目,给你的创意提供更多助力。无论您是一个 diy 的狂热爱好者、交互设计师还是机器人专家,都可以玩转开发板进行创意开发工作。
2.2实时消息传递协议(rtmp)
2.2.1 rtmp 介绍
实时消息传递协议的全称是real-time messaging protocol (rtmp)。简单地说,流媒体协议就是在两个通信系统之间传输多媒体文件的一套规则,它定义了视频文件将如何分解为小数据包以及它们在互联网上传输的顺序。rtmp 是一个比较常见的流媒体协议,rtmp 由 macromedia 进行开发,用于流式传输到 flash 播放器,但是随着 flash 开始被淘汰并且基于 http 的协议成为流式传输到播放设备的新标准,rtmp 在流媒体协议中应用范围逐渐收窄。但是丝毫不影响 rtmp 的使用,在端对端的视频流直播中它仍然占有很大的优势!
rtmp 使用独占的 1935 端口,基于 tcp 协议,在不需要缓冲的情况下,实现了低延时的特点,并且协议连接稳定。用户在观看视频的时候,若网络发生断开,用户重连后可以基于上次的断开点继续播放。rtmp 的整合灵活度很强,不仅可以整合文本、视频和音频,还可以支持 mp3 和 aac 音频流、 mp4、flv 和 f4v 视频流。
但是,rtmp 也有一些不足,比如不支持高分辨率视频和 vp9、av1 等视频压缩方法,像 ios,android、大多数嵌入式播放器和一些浏览器现在已经不再接受 rtmp 直播,某些网络默认阻止 rtmp 端口,这需要特殊的防火墙修改才能允许通过被阻止的网络。
基于 rtmp 协议进行视频的推拉流传输,我们需要一个中继视频流服务器来进行 rtmp 流的分发,这样一方面既能保证推流的稳定性,另一方面也方便管理员对视频流进行监督管理。
2.2.2 simple realtime server (srs)
srs* 是一个简单高效的实时视频流服务器,支持的协议包括了rtmp/webrtc/hls/http-flv/srt/gb28181。
支持的系统有 linux/windows/macos, 芯片架构包括了
x86_64/armv7/aarch64/m1/riscv/loongarch/mips。
你可以用它实现视频推流,并且支持http回调事件(http callback),还可以保存视频流文件。支持本地化部署,操作简单。开源地址: https://github.com/ossrs/srs
通过编译安装这样一个开源的流媒体服务器,我们可以节省开发成本,实现快速部署流媒体服务器,并进行视频推流。
2.3ffmpeg 集成 openvino 推理引擎
2.3.1 ffmpeg 介绍
ffmpeg 即是一款音视频编解码工具,同时也是一组音视频编码开发套件,作为编码开发套件,它为开发者提供了丰富的音视频处理的调用接口。
ffmpeg 提供了多种媒体格式的封装和解封装,包括多种音视频编码、多种协议的流媒体、多种多彩格式转换、多种采样率转换、多种码率转换等;ffmpeg 框架提供了多种丰富的插件模块,包含封装与解封装的插件、编码与解码的插件等。
ffmpeg 框架的基本组成包含 avformat、avcodec、avfilter、avdevice、avutil 等模块库,结构图如下:
图:ffmpeg 软件架构图
2.3.2ffmpeg 集成 openvino toolkit
openvino 是英特尔发布的一套深度学习框架,支持多种模型文件格式,包括 tensorflow*、 caffe*、onnx*、mxnet*、kaldi和torch* 等,也支持各种英特尔硬件,包括 cpu、gpu、fpga、movidius 神经计算棒等。由于 ffmpeg 要求调用的库必须提供 capi,而刚好 openvino 在2020年发布版本中增加了这样的接口。再加上 openvino 后端相对于 tensorflow 后端可以提供更多的模型格式支持,而且可以更多更好的支持各种底层硬件。所以,ffmpeg 社区接受了 openvino 中的推理引擎作为一个新的深度学习后端。
图:avfilter 内部架构图
在 avfilter 中,我们将会集成 openvino 的推理引擎作为 dnn interface 的后端进行使用。目前,ffmpeg 中没有基于深度学习模型的图像分析的 filter,只有图像处理的通用 filter,即 dnn_processing,也因此我们使用
dnn_processing 作为演示的例子:
dnn_processing=dnn_backend=openvino:model=
向右滑动查看完整代码
由于在默认编译选项下,ffmpeg 没有 openvino 后端支持库,所以,在本例中需要开发者重新编译 ffmpeg,将 libopenvino 集成到 ffmpeg 的内置库中。这里也感谢郭叶军老师将 openvino 的c接口并入 ffmpeg 的 enable 库中,使得 ffmpeg 官方支持调用 libopenvino.so 库,接入 openvino 引擎进行模型推理。
开源地址:
https://github.com/mattcurf/ffmpeg_openvino
3项目流程
3.1
操作系统安装
爱克斯板官方操作手册上linux os 安装的系统为ubuntu 20.04,为了方便操作演示,我们选择使用图形界面的ubuntu 20.04 操作系统进行演示。
若编解码压力过大,也可以选择不带图形化界面的 server 版 linux 系统搭建流服务器。若你是其他系统版本的 linux, 本流程仅供参考。
3.2搭建 rtmp 流媒体服务器
搭建步骤:
1、获取 srs 服务器源码。
git clone https://github.com/ossrs/srscd srs/trunk
向右滑动查看完整代码
2、安装依赖并编译 srs 源码。
sudo apt install -y automake tclsh./configure && make
向右滑动查看完整代码
3、编辑 srs 配置文件。
将以下内容保存为文件,譬如 conf/rtmp.conf,你可以根据自身需求对conf文件进行修改,服务器启动时指定该配置文件(srs 的 conf 文件夹有该文件)。
# conf/rtmp.conf listen 1935;max_connections 1000;vhost __defaultvhost__ {}
向右滑动查看完整代码
4、启动 srs 服务器
./objs/srs -c conf/rtmp.conf
向右滑动查看完整代码
5、启动推流编码器:
使用 ffmpeg 命令推流一个视频至服务器端:
for((;;)); do ./objs/ffmpeg/bin/ffmpeg -re -i -vcodec copy -acodec copy -f flv -y rtmp:///live/livestream; sleep 1; done
向右滑动查看完整代码
6、观看 rtmp 流。
若系统没有 vlc 播放器,使用如下命令安装 vlc 播放器:
sudo apt-get install vlc
向右滑动查看完整代码
使用 vlc 播放器输入 rtmp 流地址,即可观看该视频流。
3.3安装 ffmpeg 并编译 openvino 工具包
1.安装软件依赖
apt-get install -y -q --no-install-recommends apt-utils build-essential ca-certificates cmake cpio curl git gnupg-agent libdrm-dev libpciaccess-dev libva-dev libx11-dev libsdl2-2.0 libsdl2-dev libx11-xcb-dev libxcb-dri3-dev libxcb-present-dev lsb-release nasm pkg-config software-properties-common wget xorg-dev xutils-dev clang libfdk-aac-dev libspeex-dev libx264-dev libx265-dev libnuma-dev libopencore-amrnb-dev libopencore-amrwb-dev yasm
向右滑动查看完整代码
2.安装 opencl & vaapi
curl -l https://repositories.intel.com/graphics/intel-graphics.key | sudo apt-key add - && apt-add-repository 'deb [arch=amd64] https://repositories.intel.com/graphics/ubuntu focal main' && apt-get update && sudo apt-get install -y -q --no-install-recommends clinfo intel-opencl-icd intel-media-va-driver-non-free
向右滑动查看完整代码
3.安装 openvino 工具套件
curl -l https://registrationcenter-download.intel.com/akdlm/irc_nas/18319/l_openvino_toolkit_p_2021.4.752.tgz | tar xzf -#解压缩tgz包 并安装openvinocd l_openvino_toolkit_p_2021.4.752sudo ./install.sh#设置环境变量export ld_library_path=$ld_library_path:/opt/intel/openvino_2021/inference_engine/lib/intel64:/opt/intel/openvino_2021/inference_engine/external/tbb/lib:/opt/intel/openvino_2021/deployment_tools/ngraph/lib
向右滑动查看完整代码
4.编译安装 ffmpeg 并 enable openvino
git clone https://git.ffmpeg.org/ffmpeg.git cd ffmpeg ./configure --cpu=native --extra-cflags=-i/opt/intel/openvino_2021/inference_engine/include/ --extra-ldflags=-l/opt/intel/openvino_2021/inference_engine/lib/intel64 --extra-libs=-lpthread --disable-cuda-llvm --prefix=/usr --enable-static --disable-shared --enable-pic --disable-doc --disable-manpages --enable-libopenvino --enable-vaapi --enable-libx264 --enable-libx265 --enable-ffplay --enable-ffprobe --enable-gpl --enable-nonfree --enable-libxcb && make -j $(nproc) && sudo make install#清理build文件,添加va变量 rm -rf /build && echo 'libva_driver_name=ihd' >>sudo /etc/environment && sudo ldconfig
向右滑动查看完整代码
3.4运行流媒体服务器
运行 rtmp 流媒体服务器
./objs/srs -c conf/rtmp.conf
向右滑动查看完整代码
用 ffmpeg 将 usb camera 的实时画面流进行推流
for((;;)); do ffmpeg -f video4linux2 -i /dev/video0 -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f flv rtmp:///live/livestream; sleep 1; done
向右滑动查看完整代码
通过 ffmpeg 将视频进行处理后进行推流
for((;;)); do ffmpeg -re -i -vcodec copy -acodec copy -f flv -y rtmp:// /live/livestream; sleep 1; done
向右滑动查看完整代码
视频多路拼接,以4路视频拼接为例:
for((;;)); do ffmpeg -re -i -i -i -i -filter_complex [0:v]pad=iw*2:ih*2[a];[a][1:v]overlay=w*1[b];[b][2:v]overlay=0:h[c];[c][3:v]overlay=w:h -f flv -ar 44100 -y rtmp:// /live/livestream; sleep 1; done
向右滑动查看完整代码
视频增加水印
for((;;)); do ffmpeg -i -i -filter_complex overlay -f flv -ar 44100 -y rtmp:///live/livestream; sleep 1; done
向右滑动查看完整代码
使用 ai 处理视频
使用 openvino 工具套件作为 backend,对输入视频进行 ai 超分,下载所需的ir模型与测试视频。ai 模型使用的是视频超分模型 efficient sub-pixel convolutional neural network (espcn),了解模型更多信息,请至:https://arxiv.org/abs/1609.05158
wget https://raw.githubusercontent.com/guoyejun/dnn_processing/master/models/espcn.xmlwget https://raw.githubusercontent.com/guoyejun/dnn_processing/master/models/espcn.binwget https://raw.githubusercontent.com/guoyejun/dnn_processing/master/models/480p.mp4
向右滑动查看完整代码
输入视频为480p 格式的 mp4 视频,利用 vaapi 将编解码置于集成显卡中进行,并且在集成显卡中利用 vaapi 对视频编解码进行加速。首先,硬解码需要先 hwdonwload 到缓存中进行处理,通过 “dnn_processing” 读入使用 openvino 推理的espcn 模型,input/output 确定模型的输入层和输出层,“device” 参数可以设置运行模型推理的设备,这里我们将其设置为 “gpu”,意思是使用集成显卡进行模型推理,你也可以将其设置为 “cpu”,vfilters 工作结束之后 hwupload 进行封装,最后,将超分完成的视频进行推流:
for((;;)); do ffmpeg -y -loglevel warning -hide_banner -stats -benchmark -hwaccel vaapi -hwaccel_output_format vaapi -i -vf hwdownload,format=yuv420p,dnn_processing=dnn_backend=openvino:model=:input=x:output=espcn/prediction:options=device=gpu,format=nv12,hwupload -c:v h264_vaapi -f flv -ar 44100 -y rtmp:///live/livestream; sleep 1; done
向右滑动查看完整代码
ffmpeg 作为一款开源的视频处理软件,其后端兼容的软件工具网络多种多样,你可以探索接入各种视频处理后端,软硬件加速工具,以及自定义程序。
你也可以根据你的需求或者兴趣,利用 ffmpeg、openvino 工具套件和爱克斯开发板实现更多有创意的应用或者发明。如果你已经有了好的创意或者开发计划,可以通过填写开发计划说明来免费申请爱克斯开发板进行实验,详情请点击:
3.5 网络推流直播
在公网上进行视频推流
网络直播现在当下是一个非常热门的领域,对于一般用户来说,他们会使用直播网站提供的直播伴侣软件进行直播。
基于 rtmp 服务器的建立,我们可以通过服务器推流的方式,将想要进行直播的摄像头视频流或者是存储于服务器的视频进行推流直播。在 ffmpeg 和 openvino 的加持下,我们也可以对要推的视频流进行编辑操作,赋予 ai 推理之类的能力,将处理过的视频进行推流直播。直播软件一般都会提供获取互联网资源的接入口,方便主播直接进行拉流。
局域网:
通过局域网 ip,可以在内网对客户端进行推送处理过的视频流。
4总结
英特尔 开发者套件 —— 爱克斯开发板以intel celeron n5105作为处理核心,在相同的功耗下获得了优秀的计算性能。在本例中,它作为一个小型的流媒体服务器,可以做到多路编解码,实时视频传输,以及在 openvino 工具套件的帮助下对视频进行 ai 处理后将视频进行推流。本文以一个超分模型为例,将ai推理应用于这样一个流媒体服务器中,这主要也是给广大开发者提供了这样一个思路,可以将例如人脸检测,分割,或者识别模型同样部署于流服务器中,利用 ai 模型将推流出来的视频经过ai处理,这样就能给一个普通的视频流服务器进行 ai 赋能。别忘了,如果你有好的创意,可以通过提交开发计划说明来免费申请爱克斯开发板进行实验。
rtmp 流媒体服务器在市面上的应用十分广泛,除了点对点的视频传播,像现在非常热门的网络直播,都可以通过这样一个服务器达到自动播放视频,自动处理视频的效果,能够获得一定的商业价值。由于 ffmpeg 这样一个开源框架的自由度很高,只要是 ffmpeg 能够集成的功能,都可以很轻松地部署到服务器中,大家快来参与活动,申请板子开始创造实验吧。
「自行科技」用视觉算法助力安全出行
报警系统发展面临多重瓶颈 应用水平一直停滞不前
适于家居照明低成本LED驱动电源方案
EMIO方式模拟SCCB时序进行读写操作详解
2021年FTF青少年无人机大赛线上选拔赛举办
使用英特尔开发者套件搭建RTMP流媒体服务器
VR和AR在直播行业中的应用及其发展
由4G迈向5G,这一步有多大?
AI频谱对于5G意味着什么
Tesla Model S、Model X和Model 3开启巡展 我们看看Model 3的亮点在哪里
哪款U盘最值得购买
安卓线、TypeC线、苹果线...为什么会有这么多数据线?
一文了解汽车液压助力转向系统
寒武纪宣布将在2019世界人工智能大会上展示新一代云端AI芯片
北快手南抖音_相比其他的短视频APP_微博该何去何从呢?
工业AI与商业AI的差异有何差异?
如何成功导入STEP9
4294A阻抗分析仪维修白屏案例
2025年中国最多实现半导体芯片自给率20%
训练营:7天完成SoC的PR设计