来看望机智的前端童鞋怎么防盗

HTML5:使用Canvas实时处理Video

2015/09/11 · HTML5 ·
Canvas

本文由 伯乐在线 –
cucr
翻译,唐尤华
校稿。未经许可,禁止转发!
英文出处:mozilla。欢迎参加翻译组。

结合HTML5下的videocanvas的作用,你能够实时处理录制数据,为正值播放的录制添加种种各个的视觉效果。本学科演示如何运用JavaScript代码实现chroma-keying特效(也被称作“油红荧屏效应”)。

请看这些实例.

来探视机智的前端童鞋怎么防盗

2016/07/12 · JavaScript
· 4 评论 ·
HTML5

原稿出处: VaJoy   

不少支出的童鞋都以壹身混江湖、夜宿城中村,假如居住的地点安全保卫欠缺,那么出门在外难免担心屋里的资金财产安全。

实则世面上有很多壮烈上的防盗设备,但对中国“氢弹之父”感的前端童鞋来说,只要有一台附带录像头的电脑,就能够回顾地达成1个防盗监察和控制系列~

纯 JS 的“防盗”能力相当大程度借助于 H伍 canvas
的力量,且卓殊有趣。假设你对 canvas
还面生,能够先点这里读书小编的壹系列教程。

step一. 调用录制头

我们需求先在浏览器上访问和调用录制头,用来监督屋子里的举止。分化浏览器中调用录制头的
API 都略有出入,在此间大家以 chrome 做示范:

JavaScript

<video width=”640″ height=”480″ autoplay></video>
<script> var video = document.querySelector(‘video’);
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.webkitURL.createObjectURL(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
</script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
<video width="640" height="480" autoplay></video>
 
<script>
    var video = document.querySelector(‘video’);
 
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
</script>

运维页面后,浏览器出于安全性缅怀,会询问是还是不是允许当前页面访问你的录制头设备,点击“允许”后便能一直在
<video> 上来看拍片头捕获到的镜头了:

金沙js333娱乐场 1

step2. 捕获 video 帧画面

只然而开着摄像头监视房间可不曾其余意义,浏览器不会帮你对监督检查画面进行剖析。所以那边大家胜利动用脚本捕获
video 上的帧画面,用于在继承进展数量解析。

从此处开端我们就要借助 canvas
力量了。在 Canvas入门(五)一文大家介绍过 ctx.drawImage()
方法,通过它能够捕获 video 帧画面并渲染到画布上。

咱俩必要创建四个画布,然后这么写:

JavaScript

<video width=”640″ height=”480″ autoplay></video> <canvas
width=”640″ height=”480″></canvas> <script> var video =
document.querySelector(‘video’); var canvas =
document.querySelector(‘canvas’); // video捕获录像头画面
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.webkitU库罗德L.createObjectU昂CoraL(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
//canvas var context = canvas.getContext(‘2d’); setTimeout(function(){
//把当前录像帧内容渲染到画布上 context.drawImage(video, 0, 0, 640, 480);
}, 4000); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector(‘video’);
    var canvas = document.querySelector(‘canvas’);
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
 
    //canvas
    var context = canvas.getContext(‘2d’);
 
    setTimeout(function(){
        //把当前视频帧内容渲染到画布上
        context.drawImage(video, 0, 0, 640, 480);
    }, 5000);
 
</script>

如上代码所示,伍秒后把摄像帧内容渲染到画布上(下方右图)

金沙js333娱乐场 2

step三. 对抓获的四个帧画面执行差距混合

在上头大家提到过,要卓有作用地辨别有些场景,要求对录像镜头进行数量解析。

那么要怎么分辨咱们的房舍是不是有人忽然闯入了啊?答案很不难 —— 定时地捕获
video 画面,然后比较前后两帧内容是不是留存较大变迁。

我们先简单地写八个定时捕获的诀窍,并将捕获到的帧数据存起来:

JavaScript

//canvas var context = canvas.getContext(‘二d’); var preFrame, //前一帧
curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){
console.log(context); preFrame = curFrame; context.drawImage(video, 0,
0, 640, 480); curFrame = canvas.toDataURL; //转为base64并保存 }
//定时捕获 function timer(delta){ setTimeout(function(){
captureAndSaveFrame(); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
    //canvas
    var context = canvas.getContext(‘2d’);
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){ console.log(context);
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL;  //转为base64并保存
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            timer(delta)
        }, delta || 500);
    }
 
    timer();

如上代码所示,画布会每隔500飞秒捕获并渲染一遍 video
的帧内容(夭寿哇,做完那几个动作十分大心把饼干洒了1地。。。\(“▔□▔)/)

金沙js333娱乐场 3

只顾那里大家选取了 canvas.toDataURL 方法来保存帧画面。

接着正是数据解析处理了,我们能够经过对照前后捕获的帧画面来判定摄像头是不是监察和控制到变化,那么如何是好吧?

熟谙设计的同桌肯定日常使用1个图层功用 —— 混合方式:

金沙js333娱乐场 4

当有两个图层时,对顶层图层设置“差值/Difference”的搅和形式,能够洞察地来看三个图层的差别:

金沙js333娱乐场 5

“图A”是本身二零一八年在商店楼下拍的照片,然后本身把它有点调亮了一丢丢,并在上头画了一个X 和 O
获得“图B”。接着本身把它们以“差值”格局混合在1起,获得了最右的那张图。

JavaScript

“差值”格局原理:要掺杂图层双方的PAJEROGB值中每个值分别展开比较,用高值减去低值作为合成后的颜料,日常用孔雀绿图层合成一图像时,能够获得负片效果的反相图像。用栗色的话不发出任何变化(深紫红亮度最低,下层颜色减去最小颜色值0,结果和原来①样),而用浅米灰会获得反相效果(下层颜色被减去,获得补值),别的颜色则遵照它们的亮度水平

1
“差值”模式原理:要混合图层双方的RGB值中每个值分别进行比较,用高值减去低值作为合成后的颜色,通常用白色图层合成一图像时,可以得到负片效果的反相图像。用黑色的话不发生任何变化(黑色亮度最低,下层颜色减去最小颜色值0,结果和原来一样),而用白色会得到反相效果(下层颜色被减去,得到补值),其它颜色则基于它们的亮度水平

在CSS3中,已经有 blend-mode
特性来支撑这一个好玩的插花方式,不过大家发现,在主流浏览器上,canvas
的 globalCompositeOperation 接口也早已完美扶助了图像混合形式:

于是大家再建多二个画布来彰显前后两帧差距:

JavaScript

<video width=”640″ height=”480″ autoplay></video> <canvas
width=”640″ height=”480″></canvas> <canvas width=”640″
height=”480″></canvas> <script> var video =
document.querySelector(‘video’); var canvas =
document.querySelectorAll(‘canvas’)[0]; var canvasForDiff =
document.querySelectorAll(‘canvas’)[1]; // video捕获摄像头画面
navigator.webkitGetUserMedia({ video: true }, success, error); function
success(stream) { video.src = window.U帕杰罗L.createObjectU福特ExplorerL(stream);
video.play(); } function error(err) { alert(‘video error: ‘ + err) }
//canvas var context = canvas.getContext(‘2d’), diffCtx =
canvasForDiff.getContext(‘2d’); //将第四个画布混合情势设为“差别”
diffCtx.globalCompositeOperation = ‘difference’; var preFrame, //前壹帧
curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){
preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame
= canvas.toDataU中华VL(); //转为base64并保存 } //绘制base6四图像到画布上
function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image();
img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差异function renderDiff(){ if(!preFrame || !curFrame) return;
diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame);
} //定时捕获 function timer(delta){ setTimeout(function(){
captureAndSaveFrame(); renderDiff(); timer(delta) }, delta || 500); }
timer(); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector(‘video’);
    var canvas = document.querySelectorAll(‘canvas’)[0];
    var canvasForDiff = document.querySelectorAll(‘canvas’)[1];
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.URL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert(‘video error: ‘ + err)
    }
 
    //canvas
    var context = canvas.getContext(‘2d’),
        diffCtx = canvasForDiff.getContext(‘2d’);
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = ‘difference’;
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            timer(delta)
        }, delta || 500);
    }
 
    timer();
 
</script>

成效如下(夭寿啊,做完那一个动作作者又把Pepsi-Cola洒在键盘上了。。。(#--)/

金沙js333娱乐场 6

能够看到,当前后两帧差异很时辰,第四个画布大致是雾里看花的一片,只有当拍摄头捕获到动作了,第八个画布才有明显的高亮内容出现。

据此,大家只要求对第伍个画布渲染后的图像实行像素分析——判断其高亮阈值是还是不是达到规定的标准某些钦点预期:

JavaScript

var context = canvas.getContext(‘二d’), diffCtx =
canvasForDiff.getContext(‘二d’); //将第2个画布混合情势设为“差距”
diffCtx.globalCompositeOperation = ‘difference’; var preFrame, //前壹帧
curFrame; //当前帧 var diffFrame; //存放差异帧的imageData
//捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame;
context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataU中华VL();
//转为base6四并保存 } //绘制base6四图像到画布上 function drawImg(src,
ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src;
ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差距 function
renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0,
640, 480); drawImg(preFrame); drawImg(curFrame); diffFrame =
diffCtx.getImageData( 0, 0, 640, 480 ); //捕获差距帧的imageData对象 }
//总括差别 function calcDiff(){ if(!diffFrame) return 0; var cache =
arguments.callee, count = 0; cache.total = cache.total || 0;
//整个画布都以反动时怀有像素的值的总额 for (var i = 0, l =
diffFrame.width * diffFrame.height * 4; i < l; i += 4) { count +=
diffFrame.data[i] + diffFrame.data[i + 1] + diffFrame.data[i + 2];
if(!cache.isLoop伊夫r){ //只需在第一次循环里执行 cache.total += 25伍 * 叁;
//单个反革命像素值 } } cache.isLoop伊夫r = true; count *= 叁; //亮度放大
//重返“差别画布高亮部分像素总值”占“画布全亮情状像素总值”的比重 return
Number(count/cache.total).toFixed(二); } //定时捕获 function
timer(delta){ setTimeout(function(){ captureAndSaveFrame();
renderDiff(); setTimeout(function(){ console.log(calcDiff()); }, 拾);
timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
    var context = canvas.getContext(‘2d’),
        diffCtx = canvasForDiff.getContext(‘2d’);
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = ‘difference’;
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    var diffFrame;  //存放差异帧的imageData
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
        diffFrame = diffCtx.getImageData( 0, 0, 640, 480 );  //捕获差异帧的imageData对象
    }
 
    //计算差异
    function calcDiff(){
        if(!diffFrame) return 0;
        var cache = arguments.callee,
            count = 0;
        cache.total = cache.total || 0; //整个画布都是白色时所有像素的值的总和
        for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i += 4) {
            count += diffFrame.data[i] + diffFrame.data[i + 1] + diffFrame.data[i + 2];
            if(!cache.isLoopEver){  //只需在第一次循环里执行
                cache.total += 255 * 3;   //单个白色像素值
            }
        }
        cache.isLoopEver = true;
        count *= 3;  //亮度放大
        //返回“差异画布高亮部分像素总值”占“画布全亮情况像素总值”的比例
        return Number(count/cache.total).toFixed(2);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            setTimeout(function(){
                console.log(calcDiff());
            }, 10);
 
            timer(delta)
        }, delta || 500);
    }
 
    timer();

留意那里我们应用了 count *= 三来放大差距高亮像素的亮度值,不然得出的数值实在太小了。大家运行下页面(图片较大加载会有点慢)

金沙js333娱乐场 7

透过试(xia)验(bai),个人认为只要 calcDiff() 重返的比值假使过量
0.20,那么就能够定性为“一间空屋子,突然有人闯进来”的景况了。

step四. 上报格外图片

当上述的盘算发现有意况时,需求有某种途径布告大家。有钱有生命力的话能够配备个邮件服务器,直接发邮件甚至短信公告到温馨,but
本文走的吃吐少年路线,就不搞的那么高端了。

那就是说要怎么着不难地落到实处丰富图片的上报呢?笔者临时想到的是 ——
直接把标题图片发送到某些站点中去。

此地大家采取天涯论坛的“日记”功能,它能够自由上传相关内容。

JavaScript

p.s.,其实那里原来是想直接把图片传遍新浪相册上的,可惜POST请求的图样实体须求走
file 格式,即不能够通过脚本更改文件的 input[type=file],转 Blob
再上传也没用,只可以作罢。

1
p.s.,其实这里原本是想直接把图片传到博客园相册上的,可惜POST请求的图片实体要求走 file 格式,即无法通过脚本更改文件的 input[type=file],转 Blob 再上传也没用,只好作罢。

咱俩在保管后台创造日记时,通过 Fiddler 抓包能够阅览其请求参数万分不难:

金沙js333娱乐场 8

所以得以一贯组织三个呼吁:

JavaScript

//十分图片上传处理 function submit(){ //ajax 提交form $.ajax({ url :
”, type : “POST”, data : {
‘__VIEWSTATE’: ”, ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(), ‘Editor$Edit$EditorBody’:
‘<img src=”‘%20+%20curFrame%20+%20′” />’, ‘Editor$Edit$lkbPost’: ‘保存’ },
success: function(){ console.log(‘submit done’) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
    //异常图片上传处理
    function submit(){
 
        //ajax 提交form
        $.ajax({
            url : ‘http://i.cnblogs.com/EditDiary.aspx?opt=1’,
            type : "POST",
            data : {
                ‘__VIEWSTATE’: ”,
                ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
                ‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(),
                ‘Editor$Edit$EditorBody’: ‘<img src="’%20+%20curFrame%20+%20’" />’,
                ‘Editor$Edit$lkbPost’: ‘保存’
            },
            success: function(){
                console.log(‘submit done’)
            }
        });
    }

本来借使请求页面跟天涯论坛域名不一样,是力不从心发送 cookie
导致请求跨域而失效,不过这几个很好化解,直接改动 host
即可(怎么修改就不介绍了,自行百度吗)

本身那边改完 host,通过 
的地点访问页面,发现摄像头竟然失效了~

通过谷歌(Google)的文书档案可以识破,这是为着安全性思考,非
HTTPS 的服务端请求都不可能联网录制头。然则化解办法也是局地,以 window
系统为例,打开 cmd 命令行面板并定位到 chrome 安装文件夹下,然后实施:

ZSH

chrome
–unsafely-treat-insecure-origin-as-secure=””
–user-data-dir=C:\testprofile

1
chrome –unsafely-treat-insecure-origin-as-secure="http://i.cnblogs.com/h5monitor/final.html"  –user-data-dir=C:\testprofile

行动将以沙箱方式打开二个独门的 chrome
进度,并对点名的站点去掉安全范围。注意大家在新开的 chrome
中得重新登录天涯论坛。

此刻便能健康访问录像头了,大家对代码做下拍卖,当差距检查评定发现至极时,创立一份日记,最小间隔时间为五秒(可是后来发觉没需要,因为微博已经有做了时光限定,差不离拾秒后才能发表新的日记)

JavaScript

//定时捕获 function timer(delta){ setTimeout(function(){
captureAndSaveFrame(); renderDiff(); if(calcDiff() > 0.贰){
//监察和控制到充裕,发日志 submit() } timer(delta) }, delta || 500); }
setTimeout(timer, 陆仟0 * 十); //设定打开页面13分钟后才起来监察和控制//很是图片上传处理 function submit(){ var cache = arguments.callee, now
= Date.now(); if(cache.reqTime && (now – cache.reqTime < 伍仟))
return; //日记创造最小间隔为5秒 cache.req提姆e = now; //ajax 提交form
$.ajax({ url : ”, type :
“POST”, timeout : 5000, data : { ‘__VIEWSTATE’: ”,
‘__VIEWSTATEGENERATOR’: ‘4773056F’, ‘Editor$Edit$txbTitle’: ‘告警’ +
Date.now(), ‘Editor$Edit$EditorBody’: ‘<img src=”‘%20+%20curFrame%20+%20′”
/>’, ‘Editor$Edit$lkbPost’: ‘保存’ }, success: function(){
console.log(‘submit done’) }, error: function(err){ cache.reqTime = 0;
console.log(‘error: ‘ + err) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            if(calcDiff() > 0.2){  //监控到异常,发日志
                submit()
            }
 
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控
 
 
    //异常图片上传处理
    function submit(){
        var cache = arguments.callee,
            now = Date.now();
        if(cache.reqTime && (now – cache.reqTime < 5000)) return;  //日记创建最小间隔为5秒
 
        cache.reqTime = now;
 
        //ajax 提交form
        $.ajax({
            url : ‘http://i.cnblogs.com/EditDiary.aspx?opt=1’,
            type : "POST",
            timeout : 5000,
            data : {
                ‘__VIEWSTATE’: ”,
                ‘__VIEWSTATEGENERATOR’: ‘4773056F’,
                ‘Editor$Edit$txbTitle’: ‘告警’ + Date.now(),
                ‘Editor$Edit$EditorBody’: ‘<img src="’%20+%20curFrame%20+%20’" />’,
                ‘Editor$Edit$lkbPost’: ‘保存’
            },
            success: function(){
                console.log(‘submit done’)
            },
            error: function(err){
                cache.reqTime = 0;
                console.log(‘error: ‘ + err)
            }
        });
    }

执行效果:

金沙js333娱乐场 9

日志也是妥妥的出来了:

金沙js333娱乐场 10

点开就能看到这多少个的那张图纸了:金沙js333娱乐场,

金沙js333娱乐场 11

要注意的是,今日头条对日记公布数据是有做每一日额度限制来防刷的,达到限额的话会招致当天的随笔和小说也无从宣布,所以得严酷使用:

金沙js333娱乐场 12

但是那种样式仅能反映至极图片,权且十分的小概让我们当下收悉告警,有趣味的童鞋能够试着再写个
chrome 插件,定时去拉取日记列表做判定,假设有新增日记则触发页面 alert。

其它大家当然希望能间接对闯入者实行警戒,那块比较好办 ——
搞个警示的节奏,在13分的时候接触播放即可:

JavaScript

//播放音频 function fireAlarm(){ audio.play() } //定时捕获 function
timer(delta){ setTimeout(function(){ captureAndSaveFrame(); if(preFrame
&& curFrame){ renderDiff(); if(calcDiff() > 0.二){ //监察和控制到特别//发日记 submit(); //播放音频告警 fireAlarm(); } } timer(delta) }, delta
|| 500); } setTimeout(timer, 40000 * 10);
//设定打开页面10分钟后才起初监察和控制

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
    //播放音频
    function fireAlarm(){
        audio.play()
    }
 
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            if(preFrame && curFrame){
                renderDiff();
                if(calcDiff() > 0.2){  //监控到异常
                    //发日记
                    submit();
                    //播放音频告警
                    fireAlarm();
                }
            }
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控

终极说一下,本文代码均挂在我的github上,有趣味的童鞋能够自助下载。共勉~

1 赞 4 收藏 4
评论

金沙js333娱乐场 13

1、FFMpeg实行摄像编码所供给的结构:

文书档案内容

正文使用的XHTML文档如下所示。

XHTML

<!DOCTYPE html PUBLIC “-//W3C//DTD XHTML 1.0 Transitional//EN”
“; <html
xmlns=”; <head> <style> body
{ background: black; color:#CCCCCC; } #c2 { background-image:
url(foo.png); background-repeat: no-repeat; } div { float: left; border
:1px solid #444444; padding:10px; margin: 10px; background:#3B3B3B; }
</style> <script type=”text/javascript;version=1.8″
src=”main.js”></script> </head> <body
onload=”processor.doLoad()”> <div> <video id=”video”
src=”video.ogv” controls=”true”/> </div> <div> <canvas
id=”c1″ width=”160″ height=”96″/> <canvas id=”c2″ width=”160″
height=”96″/> </div> </body> </html>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
        "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <style>
      body {
        background: black;
        color:#CCCCCC;
      }
      #c2 {
        background-image: url(foo.png);
        background-repeat: no-repeat;
      }
      div {
        float: left;
        border :1px solid #444444;
        padding:10px;
        margin: 10px;
        background:#3B3B3B;
      }
    </style>
    <script type="text/javascript;version=1.8" src="main.js"></script>
  </head>
 
  <body onload="processor.doLoad()">
    <div>
      <video id="video" src="video.ogv" controls="true"/>
    </div>
    <div>
      <canvas id="c1" width="160" height="96"/>
      <canvas id="c2" width="160" height="96"/>
    </div>
  </body>
</html>

如上代码关键部分如下:

1.创造了四个canvas元素,ID分别为c一和c2。c一用于展现当前帧的本来摄像,c2是用来展现执行chroma-keying特效后的摄像;c二预加载了一江小鱼态图片,将用来取代摄像中的背景观部分。
2.JavaScript代码从main.js文件导入;那段脚本使用JavaScript
一.8的特征,所以在导入脚本时,第一贰行中钦定了本子。
三.当网页加载时,main.js中的processor.doLoad()方法会运营。

为了兑现调用FFMpeg的API完毕录制的编码,以下结构是不可或缺的:

JavaScript代码

main.js中的JS代码包涵八个艺术。

AVCodec:AVCodec结构保留了2个编解码器的实例,达成实际的编码功效。日常大家在先后中定义一个指向AVCodec结构的指针指向该实例。
AVCodecContext:AVCodecContext表示AVCodec所代表的上下文新闻,保存了AVCodec所要求的片段参数。对于贯彻编码效率,大家得以在这一个布局中设置我们钦命的编码参数。经常也是概念四个指南针指向AVCodecContext。
AVFrame:AVFrame结构保留编码以前的像素数量,并作为编码器的输入数据。其在先后中也是三个指南针的样式。
AVPacket:AVPacket表示码流包结构,包蕴编码之后的码流数据。该协会能够不定义指针,以三个指标的格局定义。
在大家的次序中,大家将那个构造组成在了三个结构体中:

初始化chroma-key

doLoad()方法在XHTML文档早先加载时调用。那个点子的职能是为chroma-key处理代码准备所需的变量,设置1个事变侦听器,当用户开端播报录制时大家能检验到。

JavaScript

doLoad: function() { this.video = document.getElementById(“video”);
this.c1 = document.getElementById(“c1”); this.ctx1 =
this.c1.getContext(“2d”); this.c2 = document.getElementById(“c2”);
this.ctx2 = this.c2.getContext(“2d”); let self = this;
this.video.addEventListener(“play”, function() { self.width =
self.video.videoWidth / 2; self.height = self.video.videoHeight / 2;
self.timerCallback(); }, false); },

1
2
3
4
5
6
7
8
9
10
11
12
13
doLoad: function() {
    this.video = document.getElementById("video");
    this.c1 = document.getElementById("c1");
    this.ctx1 = this.c1.getContext("2d");
    this.c2 = document.getElementById("c2");
    this.ctx2 = this.c2.getContext("2d");
    let self = this;
    this.video.addEventListener("play", function() {
        self.width = self.video.videoWidth / 2;
        self.height = self.video.videoHeight / 2;
        self.timerCallback();
      }, false);
  },

那段代码获取XHTML文书档案中video成分和八个canvas成分的引用,还获得了五个canvas的图纸上下文的引用。那么些将在大家达成chroma-keying特效时选择。

add伊芙ntListener()监听video成分,当用户按下录像上的播放按钮时被调用。为了回应用户重放,那段代码获取录像的增幅和中度,并且减半(大家将在实施chroma-keying效果时将录像的大小减半),然后调用timerCallback()方法来运行录像捕捉和视觉效果总结。

/*****************************************
Struct: CodecCtx
Description: FFMpeg编解码器上下文
*****************************************/
typedef struct
{
AVCodec *codec; //指向编解码器实例
AVFrame *frame; //保存解码之后/编码以前的像素数量
AVCodecContext *c; //编解码器上下文,保存编解码器的部分参数设置
AVPacket pkt; //码流包结构,包蕴编码码流数据
} CodecCtx;
二、FFMpeg编码的最主要步骤:

定时器回调

定时器回调函数在录像开播时被调用(当“播放”事件时有产生时),然后负责自身周期调用,为每壹帧录像达成keying特效。

JavaScript

timerCallback: function() { if (this.video.paused || this.video.ended) {
return; } this.computeFrame(); let self = this; setTimeout(function () {
self.timerCallback(); }, 0); },

1
2
3
4
5
6
7
8
9
10
timerCallback: function() {
    if (this.video.paused || this.video.ended) {
      return;
    }
    this.computeFrame();
    let self = this;
    setTimeout(function () {
        self.timerCallback();
      }, 0);
  },

回调函数首先检查视频是不是正在播放;假使未有,回调函数不做任何事并及时回去。

然后调用computeFrame()方法,该方法对近年来录制帧执行chroma-keying特效。

回调函数做的末尾一件事正是调用setTimeout(),来让它本人尽快地被重新调用。在真正环境中,你恐怕会依照摄像的帧率来设置调用频率。

(一)、输入编码参数

拍卖录像帧数据

computeFrame()方法,如下所示,实际上负责抓取每1帧的多少和施行chroma-keying特效。

JavaScript

computeFrame: function() { this.ctx1.drawImage(this.video, 0, 0,
this.width, this.height); let frame = this.ctx1.getImageData(0, 0,
this.width, this.height); let l = frame.data.length / 4; for (let i = 0;
i < l; i++) { let r = frame.data[i * 4 + 0]; let g = frame.data[i
* 4 + 1]; let b = frame.data[i * 4 + 2]; if (g > 100 && r >
100 && b < 43) frame.data[i * 4 + 3] = 0; }
this.ctx2.putImageData(frame, 0, 0); return; }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
computeFrame: function() {
    this.ctx1.drawImage(this.video, 0, 0, this.width, this.height);
    let frame = this.ctx1.getImageData(0, 0, this.width, this.height);
    let l = frame.data.length / 4;
 
    for (let i = 0; i < l; i++) {
      let r = frame.data[i * 4 + 0];
      let g = frame.data[i * 4 + 1];
      let b = frame.data[i * 4 + 2];
      if (g > 100 && r > 100 && b < 43)
        frame.data[i * 4 + 3] = 0;
    }
    this.ctx2.putImageData(frame, 0, 0);
    return;
  }

当它被调用后,video成分将显得近期的摄像帧数据,如下所示:

金沙js333娱乐场 14

在第3行,摄像帧被复制到第二个canvas
ctx壹的图形上下文中,中度和宽窄值钦点为大家在此以前封存的帧大小的11分之5。注意,您能够透过传递video成分到绘图上下文的drawImage()方法来绘制当前摄像帧。其结果是:

金沙js333娱乐场 15

第一行代码通过调用第三个canvas上下文的getImageData()方法,来赢得原始图像数据当前录像帧的多个副本。它提供了土生土长的33位像素图像数据,那样大家就能够实行操作。第陆行代码通过将帧图像数据的路途度除以四,来总计图像的总像素数。

第陆行代码循环扫描全数像素,获取种种像素的红、绿、蓝值,同时和预约义的背景象举行相比较,这么些背景象将用foo.png中程导弹入的背景图像替换。

被检查测试成背景的每2个像素,将它的阿尔法值替换为零,注脚该像素是全然透明的。结果,最后的图像背景有个别是百分百透明的,那样在第3三行代码,把它被绘制到目的的前后文中时,效果是内容叠加到静态背景上。

由此发出的图像看起来像这样:

金沙js333娱乐场 16

在视频播放时频仍那样做,那样1帧接一帧处理,呈现出chroma-key的特效。

请看那几个实例。

1 赞 1 收藏
评论

这一步我们能够安装2个专程的布署文件,并将参数依照有些事写入这么些布局文件中,再在先后中剖析那么些布局文件得到编码的参数。假设参数不多的话,我们能够平素运用命令行将编码参数字传送入即可。

关于小编:cucr

金沙js333娱乐场 17

微博博客园:@hop_ping
个人主页 ·
作者的稿子 ·
17

金沙js333娱乐场 13

(二)、依据供给开始化要求的FFMpeg结构

首先,全数关乎到编解码的的效益,都无法不要注册音录像编解码器之后才能应用。注册编解码调用上面包车型地铁函数:

avcodec_register_all();
编解码器注册成功之后,依照钦点的CODEC_ID查找钦定的codec实例。CODEC_ID平日内定了编解码器的格式,在那边大家选拔当前利用最为广泛的H.26肆格式为例。查找codec调用的函数为avcodec_find_encoder,其声称格式为:

AVCodec *avcodec_find_encoder(enum AVCodecID id);
该函数的输入参数为3个AVCodecID的枚举类型,再次回到值为一个指向AVCodec结构的指针,用于收纳找到的编解码器实例。假若未有找到,那么该函数会回来贰个空指针。调用方法如下:

/* find the mpeg1 video encoder */
ctx.codec = avcodec_find_encoder(AV_CODEC_ID_H264);
//根据CODEC_ID查找编解码器对象实例的指针
if (!ctx.codec)
{
fprintf(stderr, “Codec not found\n”);
return false;
}
AVCodec查找成功后,下一步是分配AVCodecContext实例。分配AVCodecContext实例需求我们前面查找到的AVCodec作为参数,调用的是avcodec_alloc_context三函数。其宣称形式为:

AVCodecContext *avcodec_alloc_context3(const AVCodec *codec);
其特征同avcodec_find_encoder类似,重回二个指向AVCodecContext实例的指针。若是分配退步,会回去一个空指针。调用情势为:

ctx.c = avcodec_alloc_context3(ctx.codec); //分配AVCodecContext实例
if (!ctx.c)
{
fprintf(stderr, “Could not allocate video codec context\n”);
return false;
}
需注意,在分配成功现在,应将编码的参数设置赋值给AVCodecContext的分子。

发表评论

电子邮件地址不会被公开。 必填项已用*标注