第 5章 视频信息处理学习目标掌握模拟视频信号的特点及数字化的基本方法 ;
理解运动图像压缩的国际标准 MPEG-1和 MPEG-2;
了解视频信息获取的基本原理和方法 ;
掌握视频编辑的基本步骤和方法 。
5.1 数字视频原理
5.1.1 模拟电视信号
1,黑白电视信号模拟视频图像扫描方式有隔行扫描和非隔行扫描之分。
黑白电视和彩色电视都用隔行扫描,而计算机显示图像时一般都采用非隔行扫描 (逐行扫描 )。
非隔行扫描,电子束从显示屏的左上角一行接一行的扫到右下角,在显示屏上扫一遍就显示一幅完整的图像。
隔行扫描,电子束扫完第 1行后回到第 3行开始的位置接着扫,然后在第 5,7,…… 行上扫,直到最后一行;奇数行扫完后接着扫偶数行,这样就完成了一帧( frame)的扫描。
隔行扫描的一帧图像由两部分组成:一部分是由奇数行组成,称奇数场;另一部分是由偶数行组成,
称为偶数场,两场合起来组成一帧。
每秒钟扫描多少行称为 行频 fH;每秒钟扫描多少场称为 场频 ff;每秒扫描多少帧称 帧频 fF。
采用隔行扫描 的优点,所占用的信号传输带宽要减少一半 ;
我国的电视画面传输率是每秒 25帧,50场。 25Hz
的帧频能以最少的信号容量有效地满足人眼的视觉残留特性;隔行扫描使人眼不易觉察出闪烁,同时也解决了信号带宽的问题。
由于我国的电网频率是 50Hz,采用 50Hz的场刷新率可以有效的去掉电网信号的干扰。
全电视信号主要由图像信号(视频信号)、复合消隐信号和复合同步信号组成。这两种信号加在一起称为全电视信号
一个行周期的黑白电视信号中图像信号占 52.2μs,其余
11.8μs是扫描的逆程时间。逆程时间很短,而且逆程信号不能在屏幕上显示出来,因此逆程电平不能高于黑电平。
对于一张黑白图像,我们可以画出一行的黑白电视信号示意图,
如下图所示:
在全电视信号中,把奇数场同步信号的前沿作为一场的起点,
第 1,2,3行是场同步信号,第 4,5,6行是后均衡脉冲,
7~22行还是场消隐信号,该场消隐信号从前场 623行开始,因此,整个消隐信号是 25行加一个行消隐时间。图像信号从 23行起到 309.5行止,共 287.5行,这就是第一场或称奇数场。从
309.5行开始又是下一场的场消隐信号及前均衡脉冲,在 312.5
行出现下一个偶数场的场同步脉冲,奇数场到此结束。偶数场开始,图像信号及偶数场结束,如图 2.7所示。奇数场加上偶数场称为一帧。
电视的清晰度 一般用垂直方向和水平方向的分解率来表示。我国电视图像的垂直分解率为 575行或称
575线。这是一个理论值。
影响水平分解率的主要因素是电视系统的扫描电子束。一般认为应使水平方向与垂直方向的分解率相当时清晰度效果最好。由于电视屏幕的水平与垂直方向比例为 4:3,故实际水平分解率设计成约 540线。
水平方向的分解率或像素数决定电视信号的上限频率。电视信号逐行扫描时的信号带宽约为 10MHz,
而隔行扫描时的信号带宽约为 5MHz。我国目前规定的电视图像信号的标称频带宽度为 6MHz。
伴音信号
音频信号的频率范围一般为 20Hz~
20kHz,其频带比图像信号窄得多。电视的伴音要求与图像同步,而且不能混迭。因此一般把伴音信号放置在图像频带以外,放置的频率点称为声音载频。
我国电视信号的声音载频为 6.5MHz,伴音质量为单声道调频广播。
2.彩色电视信号黑白电视只传送一个反映景物亮度的电信号就行了,
而彩色电视除了传送亮度信号以外还要传送色度信号。
为使电视台发射一种彩色电视信号,黑白和彩色电视都能正常工作,黑白电视与彩色电视的兼容是个重要问题。
实现 黑白和彩色信号 兼容:
1.必须使亮度和色度信号分开传送,以便使黑白电视和彩色电视能够分别重现黑白和彩色图像;
2.应尽量压缩彩色电视信号的频带宽度,使其与黑白电视信号的带宽相同;
3.除了新设置的色同步信号以外,应采用与黑白电视信号完全一致的行、场扫描以及消隐、同步等控制信号。
采用 YUV空间还可以充分利用人眼对亮度细节敏感而对彩色细节迟钝的视觉特性,大大压缩色度信号的带宽。我国规定的亮度信号带宽为 6MHz,而色度信号 U,V的带宽分别仅为 1.3MHz。
在现代彩色电视系统中,通常采用 YUV彩色空间或
YIQ彩色空间,Y为亮度信号,它可以与黑白全电视信号兼容,而 U,V是色差信号。
为了解决信号频带的兼容问题,还必须采用间插的方法把两个 1.3MHz的色度信号频谱插在亮度信号频谱的高端,
这是因为亮度信号的频谱高端信号较弱,而且间隔较大。
这样既不增加 6MHz的带宽,又不会引起亮度和色度信号的混乱。这种方式称为频谱的交错。
为了与声音载频相区分,一般称色信号在亮度信号频谱高端的中心位置为彩色副载波或简称为副载波。
我国彩色电视的副载波频率为 4.43MHz。色度 C信号的总带宽为 2.6MHz,可以保证色度信号频谱都落在亮度带宽之内,如图。
5.1.2 模拟视频制式标准
1,NTSC彩色电视制式
具有如下的扫描特性:
( 1) 525行 /帧,30帧 /秒 ( 29.97fps,33.37ms/frame) 。
( 2) 高宽比:电视画面的长宽比 ( 电视为 4:3;电影为 3:2;
高清晰度电视为 16:9) 。
( 3) 隔行扫描:一帧分成 2场 ( field),262.5线 /场 。
( 4) 在每场的开始部分保留 20扫描线作为控制信息,因此只有 485条线的可视数据 。 Laser disc约 420线,S-VHS约
320线 。
( 5) 每行 63.5微秒,水平回扫时间 10微秒 ( 包含 5微秒的水平同步脉冲 ),所以显示时间是 53.5微秒 。
( 6) 颜色模型,YIQ。
2,PAL彩色电视制式
扫描特性:
( 1) 625行(扫描线) /帧,25帧 /秒
( 40ms/帧 )。
( 2)高宽比( aspect ratio),4:3。
( 3)隔行扫描,2场 /帧,312.5行 /场。
( 4)颜色模型,YUV。
3,SECAM彩色电视制式
有如下的扫描特性:
( 1) 625行(扫描线) /帧,25帧 /秒
( 40ms/帧 )。
( 2) 高宽比,4:3。
( 3) 隔行扫描,2场 /帧,312.5行 /场 。
( 4) 颜色模型,YUV。
5.1.3 电视机和录像机的输入输出信号
1.电视机的输入输出信号
电视信号主要包括 5种成分:亮度信号、色度信号、色同步信号、复合同步信号和伴音信号。
根据不同的信号源,电视接收机的输入、输出信号有以下 3种类型:
( 1)高频或射频信号。
电视机从有线或天线( RF In)接收到微弱的射频电视信号后,首先要通过调谐器对它进行解调,经过放大、混频和检波,滤掉高频载波分量,得到 PAL,NTSC或 SECAM
制式的复合全电视信号,并从全电视信号中分离伴音信号和视频信号。音频信号经音频电路处理后送扬声器输出;
视频信号经视频放大,并把亮度、色度信号分离开,得到
YC分量信号。最后,把 YC分量信号转换成 YUV,进而转换成 RGB分量信号并送显像管显示
( 2)复合视频信号,复合视频信号,即从全电视信号中分离出伴音后的视频信号,这时的色度信号还是间插在亮度信号的高端。由于复合视频的亮度和色度是间插在一起的,在信号重放时很难恢复完全一致的色彩。这种信号一般可通过电缆输入或输出到家用录像机上,其信号带宽较窄,一般只有水平
240线左右的分分辨率。
( 3) S-Video信号。是一种两分量的视频信号,它把亮度和色度信号分成两路独立的模拟信号,用两路导线分别传输并可以分别记录在模拟磁带的两路磁迹上。这种信号不仅其亮度和色度都具有较宽的带宽,而且由于亮度和色度分开传输,
可以减少其互相干扰,水平分辨率可达 420线。与复合视频信号相比,S-Video可以更好的重现色彩。
2.录像机分类及输入输出信号
录像机,是利用磁记录原理把视频信号及其伴音信号记录在磁带上的设备,故也称为磁带录像机。与电视机类似,不同的录像机对应于不同制式的电视信号。
按用途分类,主要有以下 3种 。
( 1)家用录像机。采用复合视频的格式来记录视频信号。根据不同的制式,同一种型号的家用录像机还有单制式、多制式和全制式之分。
( 2)专业用录像机。
指工业、文教、卫生等方面使用的录像机,其视频信号的水平分辨率可达 250线以上。除了具有信号的记录和重放功能以外,它还具有编辑等功能,价格是家用录像机的 10倍左右。这是目前制作电视或录像节目时大量使用的机种。
( 3)广播级录像机。
其技术指标是以视频信号的频带宽度来衡量的,一般视频带宽可高达 5MHz,相当于 400多线的水平分辨率(每 1MHz
带宽相当于水平分辨率约 80线),基本上可以无失真的记录和重放视频信号。广播级录像机采用分量视频信号
( Component Video)的记录方式,分量视频指的是亮度 Y、
色差 U和 V分别是 3路模拟信号,它们通过 3路导线传送并记录在模拟磁带的 3路磁迹上。分量视频由于其具有很宽的频带,可以提供最高质量及最精确的色彩重放。
5.1.4 电视信号数字化
常用的方法有两种:
( 1) 先用高速模 /数转换器对彩色全电视信号进行数字化,然后在数字域中进行分离亮度和色度,以获得所希望的 YUV( PAL,SECAM制 ) 分量或 YIQ
( NTSC制 ) 分量,最后转换成 RGB分量数据 。 此种方法称为复合数字化 。
( 2)从复合彩色电视图像中分离出彩色分量的亮度和色度,得到 YUV或 YIQ分量,然后用 3个模 /数转换器对 3个分量分别进行数字化,最后再转换成
RGB空间,此种方法称为 分量数字化 。
1.数字视频的采样格式
在复合电视信号中,亮度信号的带宽是色度信号带宽的两倍 。 因此其数字化时可采用副色采样法,
即对信号的色差分量的采样率低于对亮度分量的采样率 。 用 Y:U:V来表示 YUV三分量的采样比例,
则数字视频的采样格式有如下 4种:
( 1) Y:U:V=4:4:4,
指在每条扫描线上每 4个连续的取样点取 4个亮度
Y样本,4个红色差 Cr样本和 4个蓝色差 Cb样本,
相当于每个像素包含 3个样本。即对每个采样点,
亮度 Y、色差 U和 V各取一个样本,也就是每个像素用 3个样本表示。
图 5-5 4:4:4子采样格式
Y,Cb,Cr样本
Y,Cb,Cr样本仅 Y样本图 5-6 4:2:2子采样格式
( 2) Y:U:V=4:2:2。
这种方式是在每 4个连续的采样点上,取 4个亮度 Y
的样本值,而色差 U,V分别取其第一点和第三点的样本值,共 8个样本,平均每个像素用 2个样本表示。这种方式能给信号的转换留有一定余量,
效果更好一些。这是通常所用的方式,指在每条扫描线上每 4个连续的采样点取 4个亮度 Y样本,2
个红色差 Cr样本和 2个蓝色差 Cb样本,结果相当于平均每个像素用 2个样本表示。
( 3) Y:U:V=4:1:1。这种方式是在每 4个连续的采样点上,取 4个亮度 Y的样本值,而色差
U,V分别取其第一点的样本值,共 6个样本,
每个像素用 1.5个样本表示。显然这种方式的采样比例与全电视信号中的亮度、色度的带宽比例相同,数据量较小。
( 4) Y:U:V=4:2:0。 4:2:0子采样格式是指在水平和垂直方向上每 2个连续的采样点上取 2
个亮度 Y样本,1个红色差 Cr样本和 1个蓝色差 Cb样本,平均每个像素用 1.5个样本表示。
图 5-7 4:1:1子采样格式 图 5-8 MPEG-1使用的 4:2:0子采样格式扫描方式小结
电视图像既是空间的函数,也是时间的函数,而且又是隔行扫描式,所以其采样方式比扫描仪扫描图像的方式要复杂得多。
分量采样时采到的是隔行样本点,要把隔行样本组合成逐行样本,然后进行样本点的量化,YUV到 RGB色彩空间的转换等,
最后才能得到数字视频数据。
2.数字视频标准
为了在 PAL,NTSC和 SECAM电视制式之间确定共同的数字化参数,国际无线电咨询委员会( CCIR)制订了广播级质量的数字电视编码标准,称为 CCIR 601标准。该标准规定了彩色电视图像转换成数字图像时使用的采样频率,彩色空间之间的转换关系等。
( 1) 采样频率 。 ITU-RBT.601标准为三种电视制式规定了共同的电视图像采样频率 。 其基本的计算方法是:
对 PAL制,SECAM制,采样频率 fs为:
fs=625× 25× N=15625× N=13.5MHz,N=864
其中,N为每一扫描行上的采样数目。在 PAL制,SECAM
制中,625是指行数,25表示每秒帧数。
( 2) 有效显示分辨率 。
对 PAL制和 SECAM制的亮度信号,每一条扫描行采样 864个样本;对 NTSC制的亮度信号,每一条扫描行采样 858个样本。为了使这些制式的采样点兼容,规定每一扫描行的有效样本数均为 720个。
( 3)数据量。
CCIR 601规定,每个样本点都按 8位数字化,即有
256个等级 。 但实际上亮度信号占 220级,色度信号占 225级,其他位作同步,编码等控制用 。 如果按 fs的采样率和 4:2:2的格式采样,则数字视频的数据量为:
13.5(MHz)× 8(bit)+2× 6.75(MHz)× 8(bit)=27MB/s
( 4) CIF,QCIF和 SQCIF
为了兼容 625行的电视图像和 525行的电视图像,CCITT定义了公用中分辨率格式 CIF( Common Intermediate Format),
1/4 公用中分辨率格式 ( Quarter-CIF,QCIF ) 和 ( Sub-
Quarter Common Intermediate Format,SQCIF) 格式 。 CIF
格式具有如下特性:
电视图像的空间分辨率为家用录像系统 VHS的分辨率,
即 352× 288。
使用非隔行扫描 ( Non-Interlaced Scan) 。
使用 NTSC帧速率,电视图像的最大帧速率为 30
000/1001≈ 29.97幅 /秒 。
使用 1/2的 PAL水平分辨率,即 288线 。
对亮度和两个色差信号( Y,Cb和 Cr)分量分别进行编码,它们的取值范围同 ITU-R BT.601。即黑色 =16,白色 =235,色差的最大值等于 240,最小值等于 16。
CIF QCIF SQCIF
行数 /帧 像素 /行 行数 /帧 像素 /行 行数 /帧 像素 /行亮度( Y) 288 360(352) 144 180(176) 96 128
色度( Cb) 144 180(176) 72 90(88) 48 64
色度( Cr) 144 180(176) 72 90(88) 48 64
下表是 CIF,QCIF和 SQCIF图像格式参数。
本讲习题
一、选择题
1,2,3,4,5
二、填空题
3。
三、问答题
1,2
5.2 MPEG视频压缩标准
视频压缩的目标是在尽可能保证视觉效果的前提下减少视频数据率。由于视频是连续的静态图像,因此其压缩编码算法与静态图像的压缩编码算法有某些共同之处。但是运动的视频还有其自身的特性,因此在压缩时还应考虑其运动特性才能达到高压缩的目标。
视频信息经过数字化处理后其数据量是非常大的,如果不进行数据压缩处理,计算机系统就无法对它进行存储和交换。
5.2.1 视频压缩编码的基本概念
1.有损和无损压缩
无损压缩指压缩前和解压缩后的数据完全一致。
适合于由计算机生成的图像,它们一般具有连续的色调。但是无损算法一般对数字视频和自然图像的压缩效果不理想,因为其色调细腻,
不具备大块的连续色调。
几乎所有高压缩的算法都采用有损压缩,这样才能达到低数据率的目标。丢失的数据与压缩比有关,压缩比越小,丢失的数据越多,解压缩后的效果一般越差。
2.帧内和帧间压缩
帧内压缩 也称为空间压缩。当压缩一帧视频时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,这实际上与静态图像压缩类似。
帧内一般采用有损压缩算法,由于帧内压缩时各个帧之间没有相互关系,所以压缩后的视频数据仍可以以帧为单位进行编辑。帧内压缩一般达不到很高的压缩。
帧间压缩 也称为时间压缩,它通过比较时间轴上不同帧之间的数据进行压缩。帧间压缩一般是有损的。采用帧间压缩基于许多视频或动画的连续前后两帧具有很大的相关性,
或者说前后两帧信息变化很小的特点。
3.对称和不对称编码
对称意味着压缩和解压缩占用相同的计算处理能力和时间。对称算法适合实时压缩和传送视频,如视频会议应用就以采用对称的压缩编码算法为好。
不对称或非对称意味着压缩时需要花费大量的处理能力和时间,而解压缩时则能较好的实时回放,即以不同的速度进行压缩和解压缩。一般来说,压缩一段视频的时间比回放(解压缩)该视频的时间要多得多。
5.2.2 MPEG标准概述
目前有多种视频压缩编码方法,但其中最有代表性的是
MPEG数字视频格式和 AVI数字视频格式。
MPEG( Moving Picture Export Group)是 1988年 联合成立的一个专家组,它的工作是开发满足各种应用的运动图像及其伴音的压缩、解压缩和编码描述的国际标准。一般来说,MPEG标准分为 MPEG视频,MPEG音频和 MPEG
视音频三个部分。
到 2004年为止,开发和正在开发的 MPEG标准有,MPEG-1、
MPEG-2,MPEG-4,MPEG-7 和 MPEG-21 。
MPEG系列国际标准已经成为影响最大的多媒体技术标准,
对数字电视、视听消费电子产品、多媒体通信等信息产业中的重要产品将产生深远的影响。
MPEG-1:运动图像数字压缩标准,1992年正式发布 。
MPEG-2:运动图像数字压缩标准 。
L? MPEG-3:已于 1992年 7月合并到高清晰度电视 ( High-
Definition TV,HDTV) 工作组 。
MPEG-4:运动图像数字压缩标准及多媒体应用标准
( 1999年发布)。
MPEG-5:直至 1998年 9月还没有见到定义。
MPEG-6:直至 1998年 9月还没有见到定义 。
MPEG-7:多媒体内容描述接口标准 。
MPEG-21:多媒体框架和综合应用方面的框架。该标准致力于在大范围的网络上实现透明的传输和对多媒体资源的充分利用。
5.2.3 MPEG-1标准
MPEG-1的标准名称为,信息技术 ——用于数据速率高达大约 1.5 Mb/s的数字存储媒体的电视图像和伴音编码 。 它处理的是标准图像交换格式的电视,即 NTSC制为 352
像素 × 240行 /帧 × 30帧 /秒,PAL制为 352像素 × 288行 /帧 × 25帧 /秒,压缩的输出速率定义在 1.5 Mb/s以下。
1,MPEG-1标准简介
由五个部分组成:
( 1) MPEG-1系统,规定了运动图像数据,声音数据及其他相关数据的同步 。
( 2) MPEG-1视频,规定了视频数据的编码和解码 。
( 3) MPEG-1音频,规定了声音数据的编码和解码 。
( 4) MPEG-1一致性测试:说明如何测试比特数据流和解码器是否满足 MPEG-1前 3个部分中所规定的要求 。
( 5) MPEG-1软件模拟:这部分内容是一个技术报告,给出了用软件执行 MPEG-1标准前 3个部分的结果。
2.运动图像的压缩依据运动图像数据压缩主要根据下面两点:
( 1)运动图像序列中有许多重复的数据,使用数学方法来表示这些重复数据就可以减少数据量;
( 2)人的眼睛对图像细节和颜色的辨认有一个极限,把超过极限的部分去掉,这也就达到了压缩数据的目的。
利用前一个事实的压缩技术就是无损压缩技术,利用后一个事实的压缩技术就是有损压缩技术。实际的图像压缩是综合使用各种有损和无损压缩技术来实现的。
运动图像压缩技术的基本方法主要表现在:
( 1)在空间方向上,图像数据压缩采用 JPEG( Joint
Photographic Experts Group)压缩算法来去掉冗余信息。
( 2)在时间方向上,图像数据压缩采用移动补偿( Motion
Compensation)算法来去掉冗余信息。
3.运动图像分类及排序为保证图像质量基本不降低而又能够获得高的压缩比,MPEG
标准定义了三种图像:帧内图( Intrapictures I),预测图
( Predicted Pictures P)和插补图,即双向预测图
( Bidirectional Prediction B)。
图像压缩首先需要处理 I帧图像,然后是对应的前向预测图像 P,
在两者的基础上才处理 B图像。 MPEG编码器算法允许选择 I图像的频率和位置。 I图像的频率是指每秒钟出现 I图像的次数,位置是指时间方向上帧所在的位置。
一个典型的 I,P,B图像安排如图所示。编码参数为:帧内图像 I的距离为 N=15,预测图像 P的距离为 M=3。
4.帧内图像 I的压缩编码基本的过程如下:
1 将图像进行颜色空间变换。如将 RGB空间转换为 YCrCb
空间表示的图像。
2 将图像划分成宏块,每个宏块包含 16× 16个像素点,每个宏块根据图像子采样进一步划分成 8× 8的图块。如采用
4:1:1的图像子采样,则一个宏块包括 4个 Y块,1个 Cr块和 1个
Cb块。
3 对每个图块进行离散余弦变换( DCT)。 DCT变换后经过量化的交流分量系数按照 Z字形排序,然后再使用无损压缩技术进行编码。 DCT变换后经过量化的直流分量系数用差分脉冲编码( DPCM),交流分量系数用行程长度编码( RLE),形成中间编码格式。
4 最后用哈夫曼( Huffman)编码或者用算术编码。
5.对 P和 B图像的压缩编码预测图像的编码也是以宏块为基本编码单元。预测图像 P编码需要两种类型的参数:
如图,假设编码图像宏块 MPI是参考图像宏块 MRJ的最佳匹配块,它们的差值就是这两个宏块中 相应像素值之差 。对所求得的差值进行彩色空间转换,并作 4:1:1的子采样得到 Y,Cr和 Cb分量值,然后仿照 JPEG压缩算法对差值进行编码,计算出的移动矢量也要进行哈夫曼编码。
当前要编码的图像宏块与参考图像的宏块之间的差值
宏块间的移动矢量。
双向预测图像 B的压缩编码框图如下图。具体计算方法与预测图像 P的算法类似。
6,MPEG解码过程由于运动图像的视频和音频需要同步,所以 MPEG压缩算法应该对两者综合考虑,最后产生一个电视质量的视频和音频形式的位速率约为 1.5Mb/s的 MPEG单一位流。
图中 MUX-1是多路复合 /分离器。单一数据流经过多路分离器,分离出移动矢量、宏块类型、量化步长和数据流。视音频数据流经过逆量化、逆 DCT变换,结合宏块类型和运动向量产生视音频数据。
MPEG-1的应用领域包括:光盘、数字音频磁带( DAT)、磁带设备、温彻斯特硬盘以及通信网络(如 ISDN和局域网等)。
其典型的应用是 VCD,99%的 VCD都是用 MPEG-1格式压缩的,
使用 MPEG-1的压缩算法,可以把一部 120分钟长的电影(未压缩视频文件)压缩到 1.2GB左右大小。
为了支持多种应用,可由用户来规定多种输入参数,包括灵活的图像尺寸和帧频。 MPEG-1标准提供了一些录像机的功能,
包括正放、图像冻结、快进、快倒和慢放,此外,还提供了随机存取的功能。
MPEG-1的应用领域
5,2,4 MPEG-2标准
MPEG-2标准 MPEG工作组制定的第二个国际标准,标准号是 ISO/IEC 13818。它是一个直接与数字电视广播有关的高质量图像和声音编码标准。和 MPEG-1相比增加了隔行扫描电视的编码,提供了位速率的可变性能( scalability)
功能。 MPEG-2要达到的最基本目标是:位速率为
4Mb/s~ 9Mb/s,最高达 15Mb/s。 MPEG-2包含 9个部分:
( 1) MPEG-2系统( 1994年)规定电视图像数据、声音数据及其他相关数据的同步。
( 2) MPEG-2视频( 1994年)规定了视频数据的编码和解码算法。
( 3) MPEG-2音频规定了声音数据的编码和解码,是 MPEG-1
Audio的扩充,支持多个声道。
( 4) MPEG-2一致性测试。
( 5) MPEG-2参考软件。
( 6) MPEG-2数字存储媒体命令和控制扩展协议。
( 7) MPEG-2高级音频编码是多声道声音编码算法标准。( 8)
MPEG-2系统解码器实时接口扩展标准。
这是与传输数据流的实时接口( Real-Time Interface,RTI)
标准,它可以用来适应来自网络的传输数据流,如图。
( 9) MPEG-2 DSM-CC一致性扩展测试。
与 MPEG-1标准相比,MPEG-2的不同特性主要表现在:
( 1) MPEG-2有“按帧编码”和“按场编码”两种模式。
在 MPEG-1中是没有电视帧的概念,只支持逐行扫描,不支持隔行扫描。在 MPEG-2中,针对隔行扫描的常规电视图像专门设置了“按帧编码”模式,相应的运动补偿算法也有扩充,分为“按帧运动补偿”和“按场运动补偿”,其编码效率显著提高。
( 2) MPEG-2的类与等级。
MPEG-2提出了配置与等级的概念。配置是按视频编码技术的简单还是复杂而确定的;对每个配置,根据编码参数的不同,即图像格式的简单还是复杂,进一步划分为不同的等级。
MPEG-2标准中规定了 5种配置 4个等级。
5个类依次为简单类、主类( Main Profile)、信噪比可伸缩类( SNR Profile)、空间分辨率可伸缩类( Simple Profile)、
高级类( High Profile)。
4个等级由低到高为低等级( Low Level)、主等级( Main
Level),1440等级( High –1440Level)和高等级( High
Level)。配置和等级之间可能的组合如表。
配置等级 简单配置 主要配置 信噪比可变配置 空间可变配置 高级配置高等级 # #
1440等级 # # #
主等级 # # # #
低等级 # #
MPEG-2实际应用点
( 3) MPEG-2增加了分层编码。
MPEG-2可伸缩性体现在:
空间分层编码:提供空间分辨率不同的图像。
时间分层编码:提供空间分辨率相同,但帧速率不同的视频信号。
信噪比分层编码:提供具有相同空间分辨率,但编码质量不同的视频比特流。
数据分割编码:将编码比特流分成两个优先级不同的部分。
( 4) MPEG-2扩充了系统层语法。
MPEG-2对系统层语法有了较大的扩充,包含了两类数据码流:传输码流( Transport Stream,TS)和节目码流
( Program Stream,PS)。
MPEG-2的应用领域很广,它不仅支持面向存储媒介的应用,
而且还支持各种通信环境下数字视频信号的编码和传输。如数字电视,TV机顶盒和 DVD(数字视频光盘),此外还可以应用于信息存储,Internet、卫星通信、视频会议和多媒体邮件等,其典型的应用是 DVD和 HDTV(高清晰度电视)。
为了适应不同的应用环境,MPEG-2中有很多可以选择的参数和选项,改变这些参数和选项可以得到不同的图像质量,
满足不同的需求。
5.2.5 MPEG-4,MPEG-7和 MPEG-21标准
1,MPEG-4标准
MPEG-4是针对低速率( ≤64kb/s)的视频压缩编码标准,
同时还注重基于视频和音频对象的交互性。
主要内容包括:系统、视频、音频、一致性测试、软件仿真和多媒体综合框架等。
系统模块的一般框架是:对自然或合成的视频和音频对象进行场景描述,对视频和音频数据流进行管理,对灵活性的支持以及对系统不同部分的配置。
视频模块提供了对多种视频格式和码流的支持,支持基于内容的视频功能,即能够按视频内容分别编解码和重建。
音频模块不仅支持自然的声音,而且支持基于描述语言的合成声音。同时还支持音频的对象特征,即一个场景中,有人、
声和背景音乐,它们可以是独立编码的音频对象。
多媒体综合框架( DMIF)主要解决交互网络、广播环境以及磁盘中多媒体应用的操作问题,通过传输多路合成比特信息,建立客户端和服务器端的握手和传输。
MPEG-4支持基于视觉内容的交互功能。而实现此功能的关键在于基于视频对象的编码,为此引入了视频对象平面( Video
Object Plane,VOP)概念,即输入视频序列的每一帧被分割成许多任意形状的图像区域(视频对象平面),每个区域可能包括一个感兴趣的具体图像或视频内容。在一个场景中属于同一物理对象的 VOP序列称为一个视频对象( Video Object,
VO)。属于同一 VO的 VOP形状、运动和纹理信息,均在一个分开的视频对象层( Video Object Layer,VOL)内编码和传输。另外,标志每一个 VOL的相关信息以及在接收端各个 VOL
的任意组合和重构完整的原始图像等信息均被包括在码流之中,
因此可以实现对每个 VOP单独进行解码,并对视频序列进行灵活的操作。
MPEG-4的应用领域包括:
数字广播电视、实时多媒体监控、低比特率下的移动多媒体通信、基于内容的信息存储和检索多媒体系统、网络视频流与可视游戏、基于面部表情模拟的虚拟会议,DVD上的交互多媒体应用、演播室和电视的节目制作等。
2,MPEG-7标准
MPEG-7也称为多媒体内容描述接口( Multimedia Content
Description Interface),目的是制定一套描述符标准,用来描述各种类型的多媒体信息和它们之间的关系,以便更快、更有效地检索信息。
这些媒体包括静态图像、图形,3D模型、声音、话音、电视以及在多媒体演示中它们之间的关系。在某些情况下,数据类型还可以包括面部特性和个人特性的表达。
MPEG-7的处理链包括三个部分:特征抽取、标准描述和检索工具。
MPEG-7的应用领域包括:数字图书馆( Digital Library),
如图像目录、音乐词典等;多媒体目录服务( Multimedia
Directory Services);广播媒体的选择等。 MPEG-7潜在应用领域还包括:教育、娱乐、新闻、旅游、医疗、购物等。
3,MPEG-21标准
( 1) MPEG-21的目标。
MPEG-21总体上来讲是一个支持通过异构网络和设备使用户透明而广泛地使用多媒体资源的标准,其目标是建立一个交互的多媒体框架。支持以下功能:
通过网络和 /或设备存取、使用并交互操作多媒体对象。
实现多种业务模型,包括在价值链中对版权和支付交易的自动管理。
对内容使用者隐私的尊重。
MPEG-21技术报告向人们描绘了一幅未来的多媒体环境场景,
这个环境能够支持各种不同的应用领域,不同用户可以使用和传送所有类型的数字内容。
( 2) MPEG-21的主要内容。
MPEG-21多媒体框架是一个结构化的框架,从结构上可分成 7
大要素:
1)数字项声明,即一种对数字项进行声明的统一而灵活的提取和可交互方案。
2)内容展现手法,它是不同媒体的数据展现方式,如音频、
视频的播放。
3)数字项的标记和描述,这是对不同自然属性、类型和粒度的数字项进行统一标记和描述的结构。
4)内容的管理和使用,它为以下过程提供接口和协议:经内容传输和消费价值链创建、制作、存储、传送和使用的内容。
5)知识产权的管理和保护,是内容在网络和设备上持久稳固的、可信的被管理和保护的方法。
6)终端和网络,它们提供可交互和透明的通过网络和终端设备存取内容的能力。
7)事件报告,它可以使用户准确了解在框架中发生的事件的可表征性能的语法和接口。
同时,MPEG-21多媒体框架标准提出了许多用户需求,可以归结为两大类:一是 MPEG-21应用发展所需的新标准;
二是为现有其他或者将来的标准和服务提供标准接口,如:
将为 XML,MPEG-2,TCP/IP等标准提供应用于 MPEG-21
框架中的标准接口,为未来标准和服务的发展提供应用于
MPEG-21框架中的扩展接口。最终,MPEG将在制定标准的同时实现统一的多媒体框架。
( 3)应用范畴。
MPEG-21的目标是要为多媒体信息的用户提供透明而有效的电子交易和使用环境。
5.3 流媒体技术
5.3.1 流媒体与流放流媒体是通过网络传输的音频、视频或多媒体文件。流媒体在播放前不需要下载整个文件,流媒体的数据流随时传送随时播放,只是在开始时有一些延迟。当流式媒体文件传输到客户方的计算机时,在播放之前该文件的部分内容已存入内存。
流媒体简单来说就是应用流媒体技术在网络上传输的多媒体文件。
流放技术就是把连续的视频和声音等多媒体信息经过压缩处理后放置在特定的服务器上,让用户一边下载一边观看、收听,
而不需要等整个压缩文件下载到自己机器后才可以观看的网络传输技术。该技术首先在用户端的计算机上创造一个缓冲区,
播放前预先下载一段资料作为缓冲,当网路实际连线速度小于播放所耗用资料的速度时,播放程序就会取用这一小段缓冲区内的资料,避免播放的中断,也使得播放品质得以维持。
目前在这个领域上,竞争的公司主要有三个,Microsoft、
Real Networks,Apple,而相应的产品是,Windows Media,
Real Media,Quicktime。
网络环境中,利用流放技术传播多媒体文件有如下优点:
( 1)实时传输和实时播放。流放多媒体使得用户可以立即播放音频和视频信号,无须等待文件传输结束,这对获取存储在服务器上的流化音频、视频文件和现场回访音频和视频流都具有十分重要的意义。
( 2)节省存储空间。采用流技术,可以节省客户端的大量存储空间,预先构造的流文件或用实时编码器对现场信息进行编码。
( 3)信息数据量较小。现场流都比原始信息的数据量要小,并且用户不必将所有下载的数据都同时存储在本地存储器上,可以边下载边回放,从而节省了大量的磁盘空间。
5.3.2 Windows Media Service简介
Windows Media Service是一个能适应多种网络带宽条件的流式多媒体信息的发布平台,包括了流式媒体的制作、
发布、播放和管理的一整套解决方案。另外,还提供了开发工具包( SDK)供二次开发使用。
Windows Media Service的核心是 ASF( Advanced
Stream Format)。 ASF是一种数据格式,音频、视频、图像以及控制命令脚本等多媒体信息通过这种格式,以网络数据包的形式传输,实现流式多媒体内容发布。其中,在网络上传输的内容就称为 ASF Stream。 ASF支持任意的压缩 /解压缩编码方式,并可以使用任何一种底层网络传输协议,具有很大的灵活性。
Windows Media Service系统由三部分构成:
媒体服务器( Windows Media Server)
媒体文件制作工具(包括媒体编码器( Windows Media
Encoder),ASF文件制作工具( Media Authoring)和 ASF文件管理工具( Media Index))
客户端媒体播放器( Windows Media Player)。
分别对应制作、发布和播放三个基本过程。
1.媒体服务器媒体服务器( Windows Media
Server)对外提供 ASF流式媒体的网络发布服务,包括两大基本服务模块:单播( Unicast
Service)和多播( Station
Service)。
Windows Media系统还提供了一套主页形式的管理工具,可以方便的对服务器进行远程管理,
完成服务器配置,监控运行时的各种事件、流量、控制客户访问的日志记录等。
2,ASF文件制作工具媒体编码器( Windows Media Encoder)的主要任务是对输入的音频、视频信号进行编码产生 ASF文件或 ASF数据流。
编码后形成的音、视频流既可以保存到本地计算机上也可以用流媒体广播协议 MSBD( Media Streaming Broadcast
Distribution)发送给媒体服务器。
流媒体文件制作工具用于将录制好的音视频信息、图片、
Powerpoint制作的幻灯片(电子教案)、各种 word文档,script
等各种信息合成到一起,形成单一的 ASF流媒体文件; Media
ASF Indexer 对 ASF 添加标记( marker)和描述( script)。
3.媒体播放器媒体播放器( Windows Media Player)用来从媒体服务器接收 ASF流并解压播放。目前使用比较广泛的媒体播放器是
Windows Media Player和 Real Player。
Windows Media Player Real Player
媒体播放器用来播放声音或者视频文件,一般具有下述功能:
( 1)解压缩:几乎所有的声音和视频都是经过压缩之后存放在存储器中的,因此无论播放来自存储器或者来自网络上的声音和视频都需要解压缩。
( 2)去抖动:在媒体播放器中使用缓存技术限制抖动,把声音或者视频图像数据先存放在缓冲存储器中,经过一段延时之后再播放。
( 3)错误处理:由于在因特网上往往会出现让人不能接收的交通拥挤,信息包流中的部分信息包在传输过程中就可能会丢失。
如果连续丢失的信息包太多,用户接收的声音和视频图像质量就不能容忍。采取的办法往往是重传。
( 4)用户控制接口:用户直接控制媒体播放器播放媒体的实际接口。媒体播放器为用户提供的控制功能通常包括声音的音量大小、暂停 /重新开始和跳转等。
5.3.3 流媒体服务的应用方式流媒体服务( Windows Media Service)系统能用于多种网络环境,基本的应用方式有如下几种:
1.点播服务( On-Demand Unicast)
“点播”是用户从媒体服务器接收流信息的一种方式。点播连接是客户端与服务器之间的主动连接。在点播连接中,用户通过选择内容项目来初始化客户端连接。内容以 ASF 流从服务器传到客户端。点播服务方式下,用户相互之间互不干扰,可以对点播内容的播放进行控制,最为灵活,但是占用服务器、
网络资源多。
2.单点或多点广播服务 ( Broadcast Unicast/Multicast)
广播指的是用户被动接收流。在广播过程中,客户端接收流,
但不能控制流。共有两类广播:单播和多播,两种方式都是被动的。
广播服务下,用户只观看播放的内容,不能进行控制。可以使用 ASF文件作为媒体内容的来源,但实时的多媒体内容最适合使用广播服务方式。如图为单点或多点广播服务方式。
Windows Media服务器管理员必须创建三个项目以支持多播:广播站、节目和流。“广播站”充当客户连接流的引用点,“节目”组织将要通过广播站广播的内容,“流”是实际内容。所有这三个项目都建立后,Windows Media管理器会创建一个,asx 文件,链接客户到正确的广播站的 IP地址;此文件称为一个“通知”。 Web网页链接到该通知文件,并将其放置到网络上的公共共享点,或通过电子邮件将其发送给客户。
3.服务器扩展( Distribution)
通过服务器扩展方式可以把一个 Media Server输出的 ASF流输出到另外一个 Media Server,再向用户提供服务。一种应用是通过服务器扩展进行发布服务器的扩展,为更多的用户服务。另一种应用是通过服务器扩展使 Media Server跨越非广播的网络,提供广播服务。另外,Windows Media Service还支持 HTTP Stream方式。使用通用的 HTTP协议可以更好的工作在 Internet上,如跨越防火墙进行媒体内容的传输。下图为服务器扩展工作方式。
5.3.4 理解 Windows Media服务协议
Windows Media服务系统各组件之间是通过协议进行通信的,主要协议包含:
1,MMS协议概述
MMS协议 用于访问媒体发布点上的单播内容,MMS是连接媒体单播服务的默认方法。若用户在媒体播放器中键入一个 URL
以连接内容,而不是通过超级链接访问内容,则必须使用 MMS
协议引用该流。
当使用 MMS协议连接到发布点时,使用 协议翻转 以获得最佳连接。“协议翻转”试图通过 MMSU连接客户端,MMSU是 MMS
协议结合 UDP数据传送。如果 MMSU连接不成功,则服务器试图使用 MMST,MMST是 MMS协议结合 TCP数据传送。
如果连接到编入索引的,asf文件,想要快进、后退、暂停、开始和停止流,则必须使用 MMS,不能用 URL路径快进或后退。
若从独立的媒体播放器连接到发布点,则必须指定单播内容的 URL。若内容在 主发布点 点播发布,则
URL由服务器名和,asf文件名组成。例如:
mms://windows_media_server/sample.asf
其中,windows_media_server是媒体服务器名,
sample.asf是想要使之转化为流的,asf文件名。
若有实时内容要通过广播单播发布,则该 URL由服务器名和发布点别名组成。例如:
mms://windows_media_server/LiveEvents
2,MSBD协议概述
MSBD协议 是用于在媒体编码器和媒体服务器组件之间分发流,并在服务器间传递流。 MSBD是面向连接的协议,对流媒体最佳。 MSBD对于测试客户端、服务器连接和 ASF内容品质很有用处,但不能作为接收 ASF内容的主要方法。媒体编码器最多可支持 15个 MSBD客户端;而一个媒体服务器最多可支持 5个 MSBD客户端。
3,HTTP概述可以配置媒体服务器使用 HTTP协议将内容转化为流。使用 HTTP流可以帮助克服防火墙障碍,因为大多数防火墙允许 HTTP通过。 HTTP流可用来由媒体编码器通过防火墙到媒体服务器,并可用以连接被防火墙隔离的媒体服务器。若以同一计算机既作为 Web服务器又运行媒体服务,
例如 Microsoft Internet信息服务( IIS),请确保在端口号
80无冲突。
如图所示描述了如何使用协议在 Windows Media服务系统各组件之间进行通信。
5.3.5 使用媒体播放器播放流媒体文件
1.从独立媒体播放器访问内容使用媒体播放器访问内容:单击“文件”菜单中的“打开”,
然后在“打开”对话框中键入位置。
( 1)播放存储的,asf文件。
在“打开”对话框中键入,mms://server/file.asf
如果媒体服务器配置为使用 HTTP传送流媒体内容,则应键入,http://server/file.asf
服务器从 ASF内容文件夹(例如,systemdrive\ASFRoot)
发送流媒体文件。当媒体服务器启用了 HTTP流时,服务器仍然使用 ASF内容文件夹作为它的主目录;服务器不使用 HTTP
虚拟根目录(也就是 systemdrive\wwwroot)作为主目录。
( 2)通过 ASX文件播放内容。
使用 ASX文件从媒体服务器、广播单播发布点或多播广播站访问,asf文件。 ASX文件是指到 ASF内容的指针。若要通过独立的播放器使用 ASX文件,必须知道到 ASX文件的路径。可在
“打开”对话框中键入文件的路径。例如,若要访问一个共享文件夹,请键入,\\server\share\file.asx
或者,想要访问一个 Web站点,请键入:
http://server/file.asx
( 3)从 HTML页播放内容。
若要使用媒体播放器访问 Web页,请在“打开”对话框中键入:
http://webserver/page.htm
媒体播放器将 URL传递到本地浏览器以打开并找到 Web页。
一旦加载 HTML页,嵌入的媒体播放器出现并开始显示与它相关的 ASF内容。
2.从链接启动媒体播放器有两种方法可以从一个 Web页或 Web应用程序的链接启动
Microsoft媒体播放器并接收来自媒体服务器的内容:
( 1)可以启用 HTTP流并直接使用到 ASF内容的 HTTP链接。
必须使用 HTTP流以通过防火墙发送内容。
( 2)可以使用 HTTP链接到,asx文件,它包含了媒体播放器用以访问 ASF内容的指导。 asx文件必须驻留在 HTTP服务器上,如 Internet信息服务器( Internet Information Server,
IIS),并在一个用户可以访问的目录中。
若要使用,asx源文件从 Web页或 Web应用程序的链接中启动媒体播放器,请使用与下面示例类似的 HTML代码创建一个
URL:
<A HREF=http://server/file.asx>
这个链接将客户端发送到,asx文件,该文件会将播放器导向您的内容的访问点。
3.嵌入媒体播放器 ActiveX控件可以将 Microsoft媒体播放器 ActiveX控件嵌入到一个 Web页或支持 ActiveX的其他应用程序容器中,这样媒体播放器就不会作为一个单独的应用程序启动。
当用户访问嵌入控件的页时,会出现一个标识控件发布者的证书。该证书提示用户或者同意下载控件,或者继续显示页而不下载控件。如果没有安装控件,将不会传送内容。
可以通过 HTML语言的 <OBJECT>标记设置控件的属性,以定义打开哪个,asf文件、发布点或广播站,以及如何播放。也可使用 Microsoft Visual Basic编制脚本来定义控件的属性,例如显示哪些按钮。
下列 HTML<OBJECT>标记显示媒体播放器的类 ID和它的一些属性的控件。
<OBJECT CLASSID="clsid:22d6f312-b0f6-11d0-94ab-
0080c74c7e95F"
HEIGHT=240
WIDTH=320
NAME=Msshow1
ID=Msshow1>
<PARAM NAME="File Name"
VALUE="mms://MSserver/Msshow1.asf">
</OBJECT>
如何设置属性决定了媒体播放器如何工作。 File Name参数标识播放的,asf文件。如果您准备从媒体播放器“文件”菜单上的“打开”选项播放,asf文件,请将这个参数的值设置为一个
URL。
5.3.6 流媒体技术的典型应用目前比较流行的流式媒体技术是美国 Real Network公司的 Real
Player产品和微软公司近年来推出的 Windows Media技术。
流媒体技术用于娱乐、培训和在线教育等方面,其主要表现为:
( 1)带图片的广播( Illustrated Audio)
( 2)流视频播出( Streaming Video)
( 3)远程教学( Remote Seminar)
( 4)提供收费电视( Pay By View)
5.4 数字视频的采集与输出
5.4.1 视频采集的几个概念
1.视频采集的基本过程视频采集首先需要信号源,目前主要有三种:
( 1)利用计算机生成的动画,如把 FLC或 GIF动画格式转换成
AVI等视频格式;
( 2)把静态图像或图形文件系列组合成视频文件序列;
( 3)通过视频采集卡把模拟视频转换成数字视频,并按数字视频文件保存下来。
一个视频采集系统一般包括:一块视频采集卡、视频信号源、一台配置较高的 MPC机系统。
其数字视频获取过程为:首先准备好模拟视频源,然后由视频采集卡对模拟视频信号进行采集、量化和编码,最后由
MPC接收和保存编码后的数字视频数据。
这里讨论通过模拟视频源获取数字视频的方式。
( 1)复合电视信号。包含亮度信号、色差信号和所有定时信号的单一信号叫做复合电视信号,或者称为全电视信号。色差信号是通过色载波信号调制之后再与亮度信号混合得到。
( 2)分量电视信号。分量电视信号( Component Video
Signal)是指每个基色分量作为独立的电视信号。每个基色既可以分别用 R,G和 B表示,也可以用亮度 -色差表示,如 Y,I
和 Q,Y,U和 V。使用分量电视信号是表示颜色的最好方法,
但需要比较宽的带宽和同步信号。
( 3) S-Video信号。分离电视信号 S-Video( Separated
Video-VHS)是亮度和色差分离的一种电视信号,是分量模拟电视信号和复合模拟电视信号的一种折中方案。使用 S-Video
有两个优点:其一是减少亮度信号和色差信号之间的交叉干扰。
第二是不需要使用梳状滤波器来分离亮度信号和色差信号,这样可提高亮度信号的带宽。
2.模拟视频信号的类型复合电视信号是把亮度信号和色差信号复合在一起,使用一条信号电缆线传输。而 S-Video信号则使用单独的两条信号电缆线,一条用于亮度信号,另一条用于色差信号,这两个信号称为 Y/C信号。
注意,不要把 S-Video和 S-VHS( Super Video Home System)
相混淆,S-VHS是高档家用录像系统,S-Video是定义信号电缆连接插座的硬件标准。 S-VHS或者写成 SVHS,是加强性 VHS
电视录像带的信号标准,提供的分辨率比 VHS提供的分辨率要高一些,噪声信号要低一些。 S-VHS支持分离的亮度和色度信号输入 /输出,取消了亮度和色度的复合 —分离过程。
5.4.2 数字视频的采集
1.模拟视频信号源及其设备只要具有复合视频输出或 S-Video输出端口的设备都可以为采集卡提供视频信号源。一般包括磁带录像机
( VCR)、摄像机( Video Camera),甚至激光视盘机
( LaserDisc Player)。把这些输出端口与采集卡相应的视频输入端口相连就可实现信号的连接。视频的采集可以按用户的创意及设计捕获图像,但采集的质量在很大程度上取决于视频采集卡的性能以及模拟视频信号源的质量。
( 1)磁带录像机及录像带:这是提供模拟视频信号源的最常用的设备。不同档次和规格的录像机对使用的磁带有不同的要求,如 VHS的磁带仅适用于 VHS录像机。
( 2)摄像机:通过摄像机可以实时获取动态实景。获取的实景可以记录在与摄像机配套的磁录像带上,也可以直接通过摄像机的输出端口输出。
( 3)电视信号:这种信号的采集较复杂一些,但也可采用多种方式。
2.模拟设备与 MPC的连接由于采集卡一般只具有视频输入端口而没有伴音输入端口,
因此如果需要同步采集模拟信号中的伴音,必须使用带声卡的 MPC机,采集卡通过 MPC上的声卡来采集同步伴音。
模拟设备与采集卡的连接包括模拟设备视频输出端口与采集卡视频输入端口的连接,以及模拟设备的音频输出端口与 MPC声卡的音频输入端口的连接。
插有视频采集卡和声卡的 MPC扩展槽构成了基本的采集环境,利用录像机来提供模拟信号源,用电视机来监视录像机输出信号,连接关系如图所示。
采集环境与输入输出连接设 VHS录像机具有 Video Out,Audio Out( R,L)和 RF Out
输出端口,则把录像机的 Video Out与采集卡的 Video In相连;
录像机的 Audio Out与 MPC声卡的 Line In相连;录像机的 RF
Out 与电视机的 RF In相连; MPC声卡的 Speaker Out 与音箱相连。按照这种连接关系,如果软件设置正确,则通过 MPC
的音箱可以监视采集的伴音情况,而采集的视像序列直接显示在 MPC的显示器上。
5.4.3 数字视频的输出数字视频的输出是数字视频采集的逆过程,也即把数字视频文件转换成模拟视频信号输出到电视机上进行显示,或输出到录像机记录到磁带上。
与视频采集类似,这需要专门的设备来完成数字数据到模拟信号之间的转换。根据不同的应用和需要,这种转换设备也有多种。
目前已开发出集模拟视频采集与输出于一体的高档卡,它插在
PC机的扩充槽中,可以与较专业的录像机相连,并提供高质量的模拟视频信号采集和输出。这种设备可以用于专业级的视频采集、编辑及输出。
另外还有一种称为 TV编码器( TV Coder)的设备,它的功能是把计算机显示器上显示的所有内容转换为模拟视频信号并输出到电视机或录像机上。这种设备的功能较低,适合于普通的多媒体应用。
1,TV Coder的组成
TV Coder 可以把显示器上显示的内容,包括文字、图像、动画、视像等实时转换成模拟信号输出。其次,可以把多媒体演示的内容记录到磁带上。用这种方式也可以把显示的数字视频文件转换成模拟视频信号输出。外置式的 TV Coder 是通过端口与 PC机及其他外设相连,以 Creative 外置式 TV Coder为例介绍:
( 1) VGA输入端口,TV Coder的输入信号取自于 PC机的 VGA
显示输出端。它支持的显示模式与显卡有关,也与转换的制式有关。如转换成 NTSC制式的模拟视频信号,PC显示模式最高可达 640× 480,256色。如果转换成 PAL制式的模拟视频信号,
PC显示模式最高可达 800× 600,64K色,而且这种模式只有个别显卡能够兼容。从信号源的角度分析可知,对于高质量的静态图像,这种转换的效果肯定没有原计算机上显示的效果好。
( 2)输出制式开关,TV Coder支持 NTSC和 PAL制式输出,由制式选择开关可选择所需的输出信号的制式。
( 3)模拟输出端口,TV Coder可提供复合视频 Video输出,二分量 S-Video输出以及三分量 GRB输出。 Video和 S-Video输出可与具有相应视频输入端口的电视或录像机相连; RGB输出可以与 RGB显示器或其他具有 RGB输入端口的设备,如投影仪等相接。需要注意的是,TV Coder只能转换显示的信号,因此输出的模拟视频信号都不包括伴音,如果需要输出和记录伴音,必须通过 MPC的声卡输出。
( 4)输出色彩调整:在转换的过程中,信号会有一定损失和变化。通过亮度和对比度调整旋钮可以调整输出模拟视频信号的亮度和对比度,以达到最佳效果。
( 5)电源:外置式的设备需要电源的供电才能正常工作,并进行数据的转换。 TV Coder配有 9V 500MA的稳压电源以提供工作用电。
( 6) VGA输出:由于 TV Coder要占用计算机主机的 VGA输出端口,因此它还提供一个 VGA输出端口以便与计算机的显示器连接。该端口与 VGA 输入端口是连通关系,当 TV Coder没有供电时也能工作。
2,TV Coder的连接及应用
( 1) TV Coder的连接。
在该连接关系中,MPC主机的 VGA输出与 TV Coder 的 VGA
输入端口相连; TV Coder 的 VGA输出与 MPC显示器相连,
也即 PC显示器通过 TV Coder与主机相连。根据 TC Coder的
VGA输入、输出端口的连通性,无论 TV Coder是否工作,显示器都能正常显示主机的显示信息。 TV Coder把其 VGA输入端接收到的信号转换成模拟视频信号并通过其复合视频输出端送往录像机的复合视频输入端。录像机的音频输入取自于
MPC声卡的音频输出。通过这种连接关系,录像机可以记录
MPC的显示内容和伴音。录像机还可以与电视机通过射频端口(或者通过复合视频和音频端口)连接,以监视和显示获取的视频信号。
( 2) TV Coder的驱动。在 Windows 95环境下,无需驱动 TV
Coder也可使用,但不能用自带的软件 TVCODER.EXE来调整屏幕的位置和偏移。在 Windows 95环境下,TV Coder支持
640× 480,256色甚至真彩色的显示模式,但真彩色显示模式时的复合视频输出效果与 256色显示模式时的效果相同。
5.5 数字视频的编辑数字视频的编辑工作主要依靠软件来完成,目前比较流行的视频编辑软件有 Adobe公司的 Adobe Premiere 6.5,微软 公司的
Windows Movie Maker 2、友立公司的会声会影 6以及品尼高公司的 Pinnacle Studio 8和 Pinnacle Edition 4.5等。这里主要介绍
Adobe公司的 Adobe Premiere软件的功能和使用。
Adobe Premiere是数字视频编辑的强大工具,在多媒体制作领域扮演着举足轻重的角色。它能使用多轨的影像与声音来合成与剪辑 avi,mov等动态影像格式,为广大有着不同需求的视频用户提供了一个低成本的视频编辑方案。
5.5.1 Premiere的基本功能
( 1)可以实时采集视频信号。采集精度取决于视频卡和 PC机的功能,
主要的视频格式为 avi。
( 2)可以进行自定义以使用特殊的 DV设备和格式。
( 3)将多种媒体数据综合处理为一个视频文件。
( 4)具有多种活动图像的特技处理功能。
( 5)可以配音或叠加文字和图像。
( 6)可以提供多样的网页输出选项和网页标记的功能。
5.5.2 Premiere的界面组成启动,在“开始”菜单上单击“程序 /Adobe/Premiere
6.5/Adobe Premiere 6.5” 。
启动后弹出的是电影预设方案( Load Project Settings)对话框,
在预设方案中如没有特殊要求,一般选择 Frame Rate数字较小的方案。每一种预设方案中都包括文件的压缩类型、视频尺寸、
播放速度、音频模式等,如需改变已有的设置选项,可单击
Custom按钮,然后就可在出现的对话框中改变设置。在对话框的右边是每一种预设方案的具体描述以及视频尺寸、播放速度、
音频模式等方面的信息。单击 OK按钮确定所选的预设方案。
从预设表中选择 Multimedia Video for Windows选项,单击 OK按钮,屏幕上会同时显示几个窗口,如图 5-24所示。主要的窗口包括项目( Project)窗口、监视( Monitor)窗口、时间轴
( Timeline)、过渡( Transitions)窗口、效果( Effects)窗口,
这 5个窗口是 Premiere 6.5的基本窗口,制作电影时一般都要用到。可以根据需要调整窗口的位置或关闭窗口,也可通过
Window菜单打开更多的窗口。
打开 Premiere后显示的窗口
( 3) Project(剧本)。 Project菜单允许用户设置剧本;移动、
取代不经常使用的素材;自动化时间线、输出文件包以及整理剧本文件等。
( 4) Clip(素材)。 Clip菜单主要包含了如允许用户阅览当前素材片断的属性、设置素材名称插入素材到剧本和插入素材到时间线等对时间线窗口中的各种素材进行编辑处理的命令。
( 5) Timeline(时间线)。 Timeline菜单的主要功能是对素材片断进行编辑,并最终生成电影。
( 6) Window(窗口)。 Window菜单的主要功能是对各种编辑工具进行管理,可以通过它上面的编辑工具进行打开或者隐藏操作。
( 7) Title(字幕)。 Title菜单的主要功能是设置当前字幕编辑窗口中的字的一些属性。
( 8) Help(帮助)。帮助下拉菜单的主要功能是在使用
Premiere遇到困难时,通过它来查找相应的内容。
如图,各窗口功能如下:
Project窗口:用于输入和存储片断,组织和管理当前文件中需要的素材剪辑。
Monitor窗口:用于预览在结构窗口中编辑的电影片断。
Timeline窗口:用于编辑或装配片断。
Transitions窗口:在片断之间插入特殊变换效果。
Effects窗口:用于显示一些效果控制信息。
5.5.4 Premiere功能窗口简介
5.5.5 Premiere实例制作的前期工作
1.策划剧本
( 1)确定作品的主题,即需要制作什么。
( 2)根据主题,收集素材,包括录像、照片、声音、文本等,
并加工成计算机可以接受的形式。
( 3)根据确定的主题、手头的素材,以及现有的硬件条件,
策划一个简单的“剧本”。
( 4)接下来就可以着手用 Premiere开始具体的制作工作,首先要做的第一件事就是建立新的剧本。
在制作一个影视节目之前,应先写一个有关剧本中镜头排列及活动顺序的简要说明,或建立一系列的草图,称之为故事板,
上面先标出影片的开始、应用的切换、特技效果、加入的声音及影片的结尾等,然后再决定要放进剧本的素材是一个影片片断、一个录音样品还是一张 Photoshop图像或位图图像。
2.准备素材在进行剧本制作之前,首先要对工作的材料进行搜集和准备,
这就是素材的准备工作。
( 1)素材。 Premiere通过组合素材的方法来制作影片。
所谓“素材”,指的是未经剪辑的视频、音频片断,将视频图像采集到计算机中形成的视频文件,基本上都需要 2次加工。
所谓“影片”,指的是 Premiere对素材加工后的成品,一般是较完整的片断。
由于电视机和计算机视频表现模式有明显的差异,所以
Premiere普通系统和桌面系统所最终形成的影片文件,尽管通常都命名为 AVI,但却有很大的差别。一般普通系统制作的影片只能在计算机上回放,不需额外的硬件支持;桌面系统制作的影片质量很高,画面质量能达到电视台播出的广播级水准,当然其数据量和普通系统比要大的多,需配合视频回放卡才能实时在电视上播出。 Premiere同时有格式转换的功能,可以方便的将电视格式的 AVI文件转换成计算机格式的 AVI文件。
( 2)素材内容 。素材内容可以是以下内容:
从摄像机、录像机或磁带机上捕获的数字化视频。
使用 Premiere或其他资源建立的 Video For Windows或 Quick
Time影片。
幻灯片或扫描的图像。
数字音频、合成音乐和声音。
Adobe Photoshop文件。
Adobe Illustrator文件。
动画文件。
在 Premiere中建立或在 Photoshop中编辑的胶片带格式的文件。
标题字幕。
5.5.6 制作实例制作小电影,变脸,,其效果 如图。
( 1)选择 File/New Project命令,就会出现预设方案( Load
Project)对话框。从预设表中选择 Multimedia Video for
Windows选项,选择 OK按钮。
( 2)选择 Fil/New/Title命令或者按下快捷键 F9,打开 Title字幕编辑窗口,然后将填充颜色设为红色,在编辑区域中画出一个圆角四方形,选择 Title/Center Horizontally命令使其水平居中对齐,将文件保存为 title1.ptl,如下图。
制作圆角四方形
( 3)在 Bin窗口右下角的地方单击鼠标右键,在弹出的快捷菜单命令中选择 Import/File命令,将“雪山,jpg”,girl.jpg、“变脸,mp3”等视频和音频素材输入,并将项目保存文件名为“变脸,ppj”。设定后的项目窗如图所示。
( 4)在 Photoshop中里面,选择工具箱中的制作出一个圆角四方形,将填充颜色设置为黑色,并保存为M
ask.bmp。
( 5)选择 Window/Timeline命令,打开 Timeline窗口,然后从
Bin项目窗口中把 title1.ptl拖放到 Video 1A视频轨道上,然后将“
雪山,jpg”拖放到 Video 1B视频轨道上,将它们的持续时间都改成
00:05:15。选择 Windows/Show Transition命令,打开如图过渡窗口

输入素材片段过渡窗口在切换窗口中拖动滚动条,选择 Image Mask特技切换选项,然后拖入到时间线窗口中的 Transition轨道上。并且,放置该特技切换到 2个片段之间的重叠部分,以便这 2个片段进行 Image
Mask特技切换。调整它们的位置,使它们完全吻合,调整后的时间线窗口如图所示。
Timeline窗口
( 6)在 Timeline窗口中加入 Image Mask过渡片段或者双击已经放在 Transition过渡轨道上的 Image Mask过渡片段,将弹出
Image Mask Settings对话框,设置蒙板形状,如图 5-30所示。
( 7)选择 Image Mask Settings对话框中的 Select Image按钮,
将弹出一个打开文件的对话框,在该对话框中选择步骤 4中制作的 Mask.bmp蒙板文件,单击“打开”按钮打开图片。
( 8)单击 OK按钮确认 Mask.bmp文件作为新的蒙板,退回到双击 Transition轨道上的 Image Mask过渡片段后弹出的 Image
Mask Settings对话框。勾选 Show Actual Sources选项,增加
Border边框的厚度并把边框的颜色设置为绿色,如图 5-31所示,
单击 OK按钮确认设置。在预览窗口中可以看到设置的效果。
Image Mask Settings对话框设置边框
( 9)右击 Timeline窗口中 Video 1A视频轨道上的 title1.ptl文件,
在弹出的快捷菜单命令中选择 Video Options/Motion命令。打开
Motion Settings对话框,在该对话框中设置起始点坐标为( -
57,0),其他项保持默认值不变,如图所示,单击 OK按钮确认设置。
设置起始点运动
( 10)右击 Timeline窗口中 Video 1A视频轨道上的 title1.ptl文件,
在弹出的快捷菜单命令中选择 Video Options/Motion命令。打开
Motion Settings对话框,在该对话框中设置结束点坐标为
( 7,0),其他项保持默认值不变,单击 OK按钮确认设置。
( 11)选择 File/New/Title命令或者按下快捷键 F9,打开 Title字幕编辑窗口,选择 文字工具,在字幕编辑区的右上角单击,
然后输入 TURN,然后把文字大小设为 48,文字的颜色设为绿色,粗度为 4,如图所示,将其保存为 title2.ptl。
编辑文字视频滤镜效果窗口
( 12)双击项目窗口中的 girl.jpg,导入一张人物图片。然后将
girl.jpg拖放到轨道 Video 1A上,紧接在 title1.ptl文件后面。复制并紧接其后粘贴 8次,这样在轨道 Video 1A上就有 9张一样的卡通人物的图片。
( 13)选择第 2张 girl.jpg,然后选择 Window/Show Video Effects
命令,打开如图 5-34的视频滤镜效果窗口。
将 Brightness & Contrast(亮度与对比度)滤镜效果加到第 2张
girl.jpg上,这个视频滤镜效果将改变画面的亮度和对比度,类似于电视中的亮度和对比度的调节,但在这里调整则是对滑块的移动,如图所示。
添加 Brightness & Contrast滤镜效果
( 14)选择第 3张 girl.jpg,然后选择 Window/Show Video Effects
命令,打开视频滤镜效果,将 Bend(弯曲变形)滤镜效果加入到第 3张 girl.jpg上,这个视频滤镜效果的作用将会使电影片段的画面在水平或垂直方向弯曲变形。可以选择正弦( Sine)、圆形
( Circle)、三角形( Triangle)或方形( Square)作为弯曲变形的波形( Wave)。并利用滑块调整视频滤镜效果在水平方向
( Horizontal)和垂直方向( Vertical)中的变形效果,调整的参数有 Intensity(变形强度),Rate(速率)和 Width(宽度)。
同时在水平方向可以指定波形的移动方向 Direction为 Left(向左),Right(向右),In(向内),Out(向外);在垂直方向可选择移动方向有 Up(向上),Down(向下),In(向内)、
On(向外)。设置效果如图所示。
添加 Bend滤镜效果
( 15)选择第 4张 girl.jpg,然后选择 Window/Show Video Effects命令,打开视频滤镜效果,将 Lens Distortion(镜头扭曲变形)滤镜效果加到第 4张 girl.jpg上,这个视频滤镜效果可将画面原来的形状扭曲变形。通过滑块的调整,可让画面凹凸球形化、水平左右弯曲、垂直上下弯曲以及左右褶皱和垂直上下褶皱等。综合利用各向扭曲变形滑块,可使画面变得如同哈哈镜的变形效果,如图。
添加 Lens Distortion滤镜效果
( 16)选择第 5张 girl.jpg,然后选择 Window/Show Video
Effects命令,打开视频滤镜效果,将 Mirror(镜像)滤镜效果加到第 5张 girl.jpg上。这个视频滤镜效果能够使画面出现对称图像,它在水平方向或垂直方向取一个对称轴,将轴左上边的图像保持原样,右上边的图像按左边的图像对称地补充,如同镜面方向效果一般。在实际应用中,通过选择水平或垂直按钮来改变镜像对称轴的方向;对称轴的位置可以通过“镜像分界线指示器兼调整滑块”在整个画面的范围内进行调整(目前在图上面,若选择垂直则它在左边)。并且通过选择 Left,Right、
Top,Bottom选项来确定反射面,以展示不同方位的镜像效果,
如图。
添加 Mirror滤镜效果
( 17)选择第 6张 girl.jpg,然后选择 Window/Show Video Effects
命令,打开视频滤镜效果,将 Pinch(收缩)滤镜效果加到第 6
张 girl.jpg上,这个视频滤镜效果可使画面的中心部位向边缘延伸,从而造成画面为凸起的球面效果;也可以从画面的边缘向画面中心收缩,形成画面凹陷的球面效果。调节视频滤镜效果中画面延伸或收缩的百分比程度。它是随时间变化的视频滤镜效果,如图。
添加 Pinch滤镜效果
( 18)选择第 7张 girl.jpg,然后选择 Window/Show Video
Effects命令,打开视频滤镜效果,将 Ripple(波纹)滤镜效果加到第 7张 girl.jpg上,这个视频滤镜效果可以让画面形成一种波动效果,很像是水面上的波纹运动。波纹的形式可从正弦
( Sine)、圆形( Circle)、三角形( Triangle)或方形
( Square)中选取一种。利用滑块调整在水平方向
( Horizontal)和垂直方向( Vertical)中的波动力度。调整的参数有:变形强度( Intensity)、速率( Rate)、宽度
( Width)。同时在水平方向可以指定波形的移动方向:向左
( Left)、向右( Right)、向内( In)、向外( Out);在垂直方向可选择的移动方向有:向上( Up)、向下( Down)、
向内( In)、向外( Owt)。它与 Bend有相同的地方,但在输出画面上不同于 Bend,如图。
添加 Ripple滤镜效果
( 19)选择第 8张 girl.jpg,然后选择 Window/Show Video
Effects命令,打开视频滤镜效果,将 Wave(波浪)滤镜效果加到第 8张 girl.jpg上,这个视频滤镜效果会让画面形成波浪式的变形效果。有 3个主要参数调整滑块:波形发生器调整滑块,用来产生波浪的形状,即波的数目( 1~ 999);波长调整滑块,用来调整波峰之间的距离( 1~ 999);振幅调整滑块,用来调整每个波浪的弯曲变形程度( 1~ 999)。除了 3个主要参数外,可以控制波形在水平方向和垂直方向的变形百分比 Scale( 0%~
100%)和选择波形的类种型 Type(有正弦波、三角形、方形波
3种单选按钮),如图 5-41所示。
添加 Wave滤镜效果
( 20)选择第 9张 girl.jpg,然后选择
Window/Show Video Effects命令,打开视频滤镜效果,将 Spherize(球面化)
滤镜效果加到第 9张 girl.jpg上,这个视频滤镜效果会在画面的最大内切圆内进行球面凸起或凹陷变形,通过调整滑块来改变变形强度( -100~ 100)。假如不想使用在水平和垂直方向上的正常
( Normal)变化方式,可以使用单方向
(水平或垂直)变形,如图 5-42所示是使用正常变形方式的调整对话框,目前变形强度值为最大,它是随时间变化的视频滤镜效果。
添加 Spherize滤镜效果
( 21)将 title2.ptl从项目窗口中拖放到 Video 2轨道上去,调整其位置,使其 1/3和 title1.ptl重合。右击 Timeline窗口中 Video 2视频轨道上的 title2.ptl文件,在弹出的快捷菜单命令中选择 Video
Options/Motion命令,打开 Motion Settings对话框。然后设置起始点的运动坐标为( 0,0),Rotation为 0o,Zoom为 0%,如图。
设置起始点运动
( 22)选择结束点,然后设置起始点的运动,坐标为( 0,0),
Rotation为 360o,Zoom为 100%,单击 OK按钮确认。其他位置的 title2.ptl文件设置和这个一样。
( 23)再好的电影,假如没有好的配音都会失色不少,因此还需要对电影添加音频片段。从项目窗口中将“不要变,mp3”拖放到
Timeline窗口中的 Audio 1轨道上,然后调整并剪辑,使它包括整个视频片段包括的工作区域,如图。
添加声音
( 24)然后选择 Premiere菜单窗口中的 File/Save命令,保存电影剧本,按下 Enter键进行节目预览。在激活 Timeline窗口的情况下,
选择 File/Export Timeline/Movie命令,把输出的节目命名为“变脸,avi”,选择 Settings按钮,打开 Export Movie Settings(输出电影设置)对话框,在对话框中可以改变制作电影的各个特性,
在 General Settings设置对话框中,File选择 Microsoft AVI,Range
选择 Work Area(工作区域),再选择 Export Video(输出视频)、
Export Audio(输出音频)和 Open When Finished(完成后输出),单击“保存”按钮就会出现 Exporting程序处理条,输出节目。等待几分钟后,会出现播放“变脸,avi”节目的 Clip窗口,
单击“播放”按钮或“循环播放”按钮就可以看到最后的编辑效果。
( 25)大功告成,余下的工作只是一些细节的调整了。满意之后,可以生成预览文件,单击 Enter键便会出现图 5-45所示显示预览文件生成进度的框,由于本例中的素材量多且使用的效果也多,故而生成预览需要的时间较长。
Building Preview生成预览技巧,在编辑过程中对于编辑的效果预览共有如下的几种方式:
( 1)在一些特技效果的设置框中就有相应的预览框;( 2)使用 Alt键,然后在时间尺上用鼠标拖动标尺,在 Monitor窗口中预览;( 3)生成预览文件,如本小节所示;( 4)对于那些文件较大、生成预览文件较慢的,可以使用 Preview From RAM:选择 Project/Project Settings/Keyframe and Rendering… 命令,会弹出如图 5-46的参数设置对话框。
Project Settings设置对话框
( 26)输出。当一切工作完成之后,便可以输出杰作了,选择
File/Export Timeline/Movie命令,在弹出的输出对话框中选择好存储位置和存储名称(也可以将输出设置为 QuickTime Movie)。
单击 OK按钮便开始输出了,如图所示,Exporting框中会实时估计还需要的时间。
Exporting输出计时框本章思考题
1.常用的电视制式有几种?其主要指标是什么?各有什么不同?
2.电视信号和录像信号各有几种?有什么关联和区别?
3.图像的模数转换与视频的模数转换有什么不同?视频模数转换的主要步骤和关键技术是什么?
4.数字视频编辑主要包括那些步骤?
5,ITU-R BT.601标准规定 PAL和 NTSC彩色电视的每一条扫描线的有效显示像素是多少?
6.一幅 YUV彩色图像的分辨率为 720× 576。分别计算采用 4:2:2,4:1:1
和 4:2:0子采样格式采样时的样本数。
7,MPEG-1,MPEG-2,MPEG-4和 MPEG-7的目标是什么?
8.什么是流媒体?流媒体有哪些优点?
9.Premiere主要有哪些功能?
10,Premiere主要包括那些 可利用的素材格式?
11,Adobe Premiere 6.5有哪几个功能窗口,各都有什么功能?