计算机视频处理技术范文
时间:2023-09-21 17:35:20
导语:如何才能写好一篇计算机视频处理技术,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
关键词:音视频技术 舞蹈教学 应用
音乐是舞蹈的灵魂,舞蹈离不开音乐,但它并不是被音乐所主宰,舞蹈的动感变化及种类不同要求有合适的音乐能与之匹配。
一节好的舞蹈课,除了合适的教学方法、教学手段外,还需要有合适的音乐,才能达到良好的教学效果。很多学校由于条件有限,舞蹈课的教学一直是喊拍子、打鼓点,学生在教学中得不到来自音乐的感染与熏陶,缺乏对音乐的理解,很难把音乐融入舞蹈之中,条件较好的学校用磁带或者VCD光盘作为伴奏,但这两者的音乐都是固定的,音乐的段落、速度、长短、音量大小,都与教学设想不一定吻合,甚至可能对课堂训练及组合编排产生障碍。
作为一名多年从事舞蹈教学的教师,一直希望课堂上的伴奏音乐能真正符合舞蹈的要求。随着科技的进步,计算机软件技术的更新,网络资源的不断丰富,这一困扰多年的问题终于得到解决,这就是利用计算机的音频视频处理技术,合成舞蹈教学需要的音乐。
一、常见音视频文件格式简介
(一)音频文件格式
音频文件格式是指存放音频数据的文件格式,存在多种不同的格式,根据声音制作中信息是否损失可以将它分为两类:有损格式和无损格式。
无损格式,例如WAV,AU,APE,CAD,PCM,TTA,FLAC,TAK,WavPack(WV)。
有损格式,例如MP3,Windows Media Audio(WMA),Ogg Vorbis(OGG),AAC。
(二)视频文件格式
视频其实是把图像信息和声音信息放在一起的文件,根据文件开发公司的不同,我们把常见的视频文件分类如下:
微软视频:wmv、asf;
Real Player视频:rm、rmvb;
MPEG视频:mpg、mpeg;
手机视频:3gp;
Apple视频:mov;
Sony视频:mp4;
其他常见视频:avi、dat、mkv、flv、vob等。
AVI格式主要用于光盘,其生成的文件较大,图像和音乐的质量很好。MPEG文件是运动图像压缩算法的国际标准,有三个版本:MPEG-1,MPEG-2,MPEG-4,VCD光盘是MPEG-1标准,它生成的是DAT文件,是VCD的具体格式:DVD使用MPEG-2标准,MPEG-4主要应用于视像电话,其压缩比例很高,图像和音乐的质量相对较差,RM是大名鼎鼎的Real Networks公司开发的视频格式,它在压缩比方面做得非常出色,在保证一定质量的同时生成的文件较小,它是网络直播的通用格式。
二、舞蹈教学中伴奏音乐的选用原则
舞蹈教学是舞蹈教师通过口传身授的方式向学生传授专业技能的过程,课堂中不能缺少音乐的伴奏,舞蹈教学的舞种,包括芭蕾舞、古典舞、民族民间舞、幼儿舞蹈等等,不同的舞蹈需要与之特点相适应的音乐。
芭蕾舞训练最好的配乐方式是现场钢琴伴奏,但很少有这样的条件,我们常用电子音乐来配合,一般选用四三拍和四四拍的音乐,在不同的情况,比如基本动作和跳跃动作,音乐要跟随动作的特点发生变化,注意节奏感和动作起伏。
中国民族民间舞蹈的音乐极为丰富,大量的器乐曲牌、民歌小调、鼓点与民族民间舞蹈相互结合,形成了民俗文化,跳什么样的舞,用什么样音乐伴奏,基本形成了规矩。比如蒙古舞,音乐伴奏经常选用酒歌、牧歌、情歌、颂歌、马步音乐、摔跤音乐,朝鲜舞用节奏鲜明的3/4或6/8拍音乐,云南花灯中的“威”的动作连续性较强,需要用舒缓悠长、平稳流畅的音乐,等等。
中国古典舞的节奏鲜明,因此,选用的伴奏音乐要根据舞者的动作、呼吸、力度、幅度等方面的要求,使音乐能与舞者动作的抑扬顿挫、刚柔粗细和谐地统一。
儿童舞蹈的特点是动作舒展,节奏欢快,在音乐的使用上,选择节奏鲜明、生动活泼、动感很强的音乐,容易被孩子接受,动漫歌曲、流行儿歌都是较好的题材。
三、音视频处理软件在舞蹈教学中的应用
舞蹈教学需要的音乐很多,教学过程的片段化也要求有许多长短不一的音乐,这样的音乐需要量身定做,常用AVI MPEG WMV RM to MP3 Converter、Cool Edit Pro、SONAR等软件,将音视频素材按照舞蹈的意图,通过转换提取、剪切编辑,制作成合适的音乐,完成舞蹈教学或舞蹈表演。
(一)舞蹈教学音乐的采集与提取
我们需要的音乐可能不一定都是音频格式,有的存在于视频之中。视频转换MP3软件AVI MPEG WMV RM to MP3 Converter能帮助我们从视频中提取音频文件,转换成MP3,WAV等格式,它支持AVI,MPEG,RM/RMVB,WMV/ASF,MOV的视频和几乎所有的音频格式。
下面以芭蕾基训小踢腿音乐的提取为例,介绍AVI MPEG WMV RM to MP3 Converter软件的使用。
第一步:打开软件,点击打开图标,从电脑里选择需要提取的视频文件“小踢腿”。
第二步:教学中需要小踢腿音乐从00:00:51开始到00:02:18结束,选择好开始和结束时间。
第三步:点击转换图标,设定好剪辑文件的存储位置,点击确定,软件开始存储它为MP3文件。
这样“小踢腿”的音频提取就完成了,这个软件界面友好,使用方便,操作简单,能将全部或者部分片断按自己的意愿剪裁并且转换成MP3文件,不足之处是不能将不同的音频文件混合编辑。 (二)舞蹈教学音乐编辑软件Cool Edit Pro 2.1的应用
Cool Edit Pro 2.1是一个集声音录制、混音合成、编辑处理于一体的多轨数字音频编辑软件。它能进行剪接、降噪、扩音等处理,还可以实现合唱、淡入淡出、立体环绕声、3D回响等奇妙音效,合成的音频文件可以保存为WAV、SND和VOC等格式,也可以直接压缩为mp3或RM文件。
我们以一个舞蹈教学音乐剪辑的实例来介绍该软件的使用。这是一首3分钟的新疆风格的MP3音乐《快乐的跳吧》,通过Cool Edit Pro剪接编辑成一首约1分37秒的新疆舞手位组合教学音乐。
第一步:新建文件。运行该软件,新建一个波形文件,出现一个对话框,包括采样频率参数、声道选择、采样深度,一般都默认为采样频率参数44100HZ、立体声双声道、采样深度16位。
第二步:打开文件。打开选中的音乐素材MP3音乐《快乐的跳吧》。
第三步:音乐的复制、粘贴。局部改动或加工音频文件时,先要进行段落选定,否则程序默认为整个显示区域。按住鼠标左键往两边任意拖动即可选定,需要精确选定时可先选定大致区域,然后点击波形缩放钮,再反复地精细调整选定和试听,还可分别放大选区起始点和终止点以精确定位,其定位精度误差仅为千分之一秒。
《快乐的跳吧》时长3分21秒,有前奏、伴奏和演唱部分,根据新疆舞手位组合编排的要求,从11秒到46.9秒的主题音乐刚好是四个八拍,和舞蹈组合节奏很吻合,将其作为起止时间,复制。双击新建的音轨,将刚才复制的音乐片段粘贴,试听,修改,直到合适为止。
选择的音乐片段只有四个八拍,教学组合要求的是十二个八拍,重复以上粘贴操作。为了使两个音乐片段连接处过渡自然,对上一条音轨的结尾做淡出,下一条音轨的开始做淡入处理。
第四步:音量大小的统一标准化。对所有编辑完的波形进行标准化处理,以使波形振幅的最大值调整到最大电平处。按效果栏中的波形振幅下的音量标准化,输入合适数值调整音量大小。
第五步:升降调或速度快慢的处理。剪辑的这段音乐节奏稍快,选择效果菜单下的变速/变调中的伸长工具,微调一下,速度从87调到85,这首原有1分23秒的音乐就变成了1分37秒了。
(三)舞蹈教学音乐合成软件SONAR的应用
有些教学音乐并不是现成的,要根据舞蹈需要自己制作,SONAR软件正有此功能。它可以制作单声部和多声部音乐,还可以使用多种音色。使用者只要有简单的乐理知识,会识谱、记谱、知道调式调号就可以制作舞蹈教学音乐。
我们以制作中国舞基训音乐《擦地》为例(乐谱如下图),介绍该软件的使用。
第一步:打开Sonar软件。
第二步:执行菜单命令“Options/MIDI Devices”,在弹出的窗口内选择MIDI输入、输出设备。
第三步:点击新建按键,建立一个有两条MIDI音轨和两条音频的新文件,取名《擦地》。用鼠标上下移动音轨条,让相同性质的音轨条集中在一起,以利于以后音轨音乐的编辑管理。
第四步:设定拍节、调号和谱号。激活Transport(Large)工具条,然后用鼠标单击工具条右边的五线谱标记,弹出节拍、调号设置窗口,节拍为2/4拍,调号为C。
第五步:设定乐曲的速度。在“Tempo”工具条里把速度设为80。
第六步:设置音轨属性。音轨属性设置主要包括分配音轨名称、输出输入端口、通道号、音源、音色等参数。用鼠标单击音轨,打开参数窗口设置参数。音轨名称为“Stringl”,使用第三MIDI通道,音源GM音色库,音色是“Acoustic Grand Pion”(大钢琴声学钢琴),其余均采用缺省设置。
第七步:录制音乐旋律。录制有两种方式,一是鼠标输入,它操作简单,制件精确,二是MIDI键盘输入,它速率较快,需要有一定的钢琴演奏技巧。
我们用鼠标输入的方式,打开五线谱窗口,选择铅笔工具,再根据音符的要求选择音符值,最后把鼠标放到音符音高与节拍的地方点击左键即可完成音符输入。当输入出现错误时,可以用橡皮工具擦除,或对准音符点击右键,调出音符属性菜单,进行修改。
按照提供的乐谱将音乐旋律输入到五线谱窗口,在这首乐曲中,有两条旋律声部,所以要设定双音谱表,点击图标,选择两条音轨,一条是Stringl音轨,一条是MIDI音轨。另外,我们要注意音轨五线谱的谱号,在默认的情况下是高音谱号,如需要修改,可点击图标,在弹出的“Staff View Layout”菜单中设置。第一谱表为高音谱号,第二谱表为低音谱号。根据乐曲的旋律要求,第一条旋律声部是从第一小节进入的,音色选用Acoustic Grand Pion”(大钢琴声学钢琴),第二条声部从第二小节进入的,音色也选用Acoustic Grand Pion”(大钢琴声学钢琴)。
第八步:旋律的量化。使用菜单命令“Process/Quantize”,在弹出的量化对话框中设定效果,以增强音乐旋律的艺术性,使输入的音乐旋律在一个容许的误差范围内。 本文由wWw.DyLw.NeT提供,第一论 文 网专业教育教学论文和以及服务,欢迎光临dYlw.nET
第九步:音频文件导出。
以上就是利用Sonar软件制作中国古典舞基训音乐《擦地》的过程。
篇2
关键词: 运动视觉跟踪; 三维虚拟平台; 视频处理器; 三维坐标视频文件
中图分类号: TN911?34; TP391 文献标识码: A 文章编号: 1004?373X(2017)02?0039?04
Abstract: The traditional 3D virtual platform for the moving vision tracking can't accurately restore the pictures from moving object tracking, may make a bigger decision error because of the randomness and diversity characteristics of moving vision tracking object. Therefore, the 3D moving visual tracking virtual platform with high restoring precision and applicability was built. The platform is composed of moving visual tracking monitoring module, video processing display module, moving visual 3D conversion module and computer. Of vision tracking detection module in The camera in moving the visual tracking monitoring module is utilized to simulate human eye to perform the moving visual tracking, and convert the tracking results into a 3D coordinate video files. The video processing display module is used to process and display for 3D coordinate video files, and transmit the codes of video files to the moving visual 3D conversion module. The moving visual 3D conversion module is adopted to convert the video codes into 3D virtual images for providing the user with decision?making information. The 3D flow chart of the virtual image generation in the nonlinear tracking is given by the software. The algorithmic language for correcting the moving visual tracking pictures by AM209mm video processor is offered. The experimental result shows that the platform has high restoring precision and applicability.
Keywords: moving visual tracking; 3D virtual platform; video processor; 3D coordinate video file
0 引 言
随着科技水平的不断进步,人们渐渐了解到,在实际生活中人眼所能观察到的物体运动涵盖了庞大的信息,这些视觉信息能虬镏人们更好的生活[1?3]。为了将运动视觉信息完整捕捉,为使用者提供更好的决策信息,科研组织研究出运动视觉跟踪的三维虚拟平台。由于运动视觉跟踪对象有着随机性和多样性的特点,使得传统运动视觉跟踪的三维虚拟平台无法准确还原运动物体跟踪画面,决策误差较大[4?6]。因此,构建出还原精度与可应用性均高的运动视觉跟踪的三维虚拟平台,已成为科研组织的重点研究项目。
以往研究的运动视觉跟踪的三维虚拟平台均存在一定的问题,文献[7]提出基于自适应视觉服务器的运动视觉跟踪的三维虚拟平台,该平台模拟了人眼视觉原理,选取合适的坐标点进行运动物体的矩阵运算,运动视觉跟踪的效果较好。但该平台运算极其复杂,需要大量的人力和时间,开发难度较大。文献[8]提出在运动视觉跟踪的三维虚拟平台上添加智能传感器的方法,修正传感器探测到的运动物体初始画面,并进行画面分离的函数运算。该平台可以预测出运动物体在高速状态下的轨迹参数,供决策者使用,但平台运行结果的决策误差较大,平台整体的可应用性也不高。文献[9]提出基于人眼立体坐标系的运动数据跟踪三维虚拟平台,主要分析运动视觉跟踪画面的灰度值和视觉的极限值,并通过构建立体空间坐标系,实现三维虚拟画面的转换。该平台的可应用性较高,在各领域的口碑较好,但开发成本较高,不适合大面积推广。
为了解决上述问题,构建了运动视觉跟踪的三维虚拟平台。实验结果表明,所设计平台拥有较高的还原精度与可应用性。
1 运动视觉跟踪的三维虚拟平台设计
1.1 运动视觉跟踪的三维虚拟平台整体设计
运动视觉跟踪的三维虚拟平台由运动视觉跟踪监测模块、视频处理显示模块、运动视觉三维转换模块和计算机组成,如图1所示。
运动视觉跟踪的三维虚拟平台先进行运动视觉画面的跟踪,并对跟踪画面进行处理,进而将所采集到的画面还原成虚拟的三维画面。整个过程均受计算机管控。
1.2 运动视觉跟踪检测模块设计
运动视觉跟踪检测模块的核心组成元件是摄像机,图2是摄像机成像原理图。
由图2可知,利用“小孔成像”方法构建摄像机的坐标系,模拟人眼视觉。坐标系给出运动物体的坐标点,坐标点的位置决定了成像的色彩度。
摄像机跟踪运动视觉的方式分为线性跟踪和非线性跟踪。线性跟踪适合拍摄运动物体的简单行为,而非线性跟踪则可以全方位、多角度地拍摄运动物体行为,此时需要多台摄像机同时进行工作。由于“小孔成像”可以避免摄像机镜头因光源变化造成的画面扭曲,因此,线性跟踪和非线性跟踪这两种方式可以在绝大部分场所对运动物体进行运动视觉跟踪,满足了使用者的使用需求。
摄像机在单位时间内拍摄到的画面,经由坐标系给出坐标点,进而组成运动视觉跟踪的三维虚拟平台的二维画面序列。二维画面序列中运动物体的变化参数用画面彩色度表示。运动视觉跟踪检测模块利用“光流法”对摄像机拍摄到的二维画面序列进行检测,以获取运动视觉跟踪的三维虚拟平台运动视觉跟踪的三维坐标点。
运动视觉跟踪检测模块将获取到的运动视觉跟踪三维坐标点生成视频文件,传输到视频处理显示模块进行解析。
1.3 视频处理显示模块设计
运动视觉跟踪的三维虚拟平台利用“运动评估”技术,精准分析运动视觉跟踪检测模块的视频文件。在运动视觉跟踪检测模块工作中,需要对摄影机拍摄画面的抖动以及噪音等影响因素进行修正。因此,运动视觉跟踪的三维虚拟平台构建了视频处理显示模块,以实现运动视觉跟踪画面的修正。
视频处理显示模块由视频处理器和显示屏组成。视频处理器对运动视觉跟踪检测模块传输来的视频文件进行压缩、画面筛选和字幕添加,处理后的视频文件会传输到显示屏进行显示。
使用AM209mm视频处理器作为视频处理显示模块的核心部件。AM209mm视频处理器能够同步处理16方视频文件,实现视频文件的画面修正。配备了远程操纵接口和实时更新入口,有效保证了运动视觉跟踪的三维虚拟平台运行的安全稳定。图3是AM209mm视频处理器结构图。
由图3可知,视频处理显示模块中AM209mm视频处理器的工作流程为:运动视觉跟踪的三维虚拟平台的运动视觉跟踪检测模块将视频文件直接传输到AM209mm视频处理器中,AM209mm视频处理器将视频解码后,监控端开始介入进行视频处理的监管。解码后的视频经由同步动态随机存储器监管宏运动,并进行摄像机画面的修正,随后生成处理日志。视频处理显示模块在初始的视频文件中注入处理日志,输出到显示屏进行显示。在监控端进行监管的过程中,若视频处理显示模块的处理流程无错误,视频处理显示模块会将视频编码传递到运动视觉三维转换模块。
1.4 运动视觉三维转换模块设计
运动视觉三维转换模块能够将运动视觉跟踪的三维虚拟平台的运动视觉跟踪视频编码转换成三维虚拟图像。使用者可利用该模块进行三维虚拟图像的解析,以获取重要的决策信息,其解析流程为:使用者在所生成的三维虚拟图像中选取需要被跟踪的运动物体,运动视觉三维转换模块会给出该运动物体的视觉运动参数,并自动根据运动参数预测出该运动物体的运动趋势,并提供给使用者决策信息,如图4所示。
图4中,对运动物体的运动位置和参数的获取在运动视觉三维转换模块的低级解析区域进行,运动视觉跟踪的三维虚拟平台对低级解析区域的运行条件要求不高,可以选取成本低廉但运行稳定的芯片。而参数特点和运动趋势预测的获取工作归属于运动视觉三维转换模块高级解析区域,运动物体的大量数据均在该区域中进行测量、解析和分类。
2 运动视觉跟踪的三维虚拟平台软件设计
在计算机软件算法的管控下,运动视觉跟踪三维虚拟平台的三维虚拟画面得以完美生成。图5为非线性跟踪下三维虚拟画面生成流程图。
由图5可知,非线性跟踪下,运动视觉跟踪三维虚拟平台的三维虚拟画面生成流程为:将非线性跟踪下的运动物体三视图进行色彩参数分离,分离参数后的运动视觉跟踪面为单色。单色画面的帧参数在三维坐标系可自动进入相对应的坐标,进而生成三维虚拟画面。运动视觉跟踪的三维虚拟平台会将三维虚拟画面和与其相对应的原始画面共同存储,方便日后进行平台的完善工作。
同时,运动视觉跟踪的三维虚拟平台的软件给出了使用AM209mm视频处理器进行运动视觉跟踪数据处理的算法语言:
#XSD AM209mm_MOV(); _MOV_();_MOV_();
#XSD TXD_MHZ t1;
%连接视频处理器
firm MCSB_AM209mm=t3^1;
%AM?209M功能敲定
firm GOVERN_AM209mm=t3^0;
%读取视频处理器的控制命令
firm A_AM209D=t3^3;
%读取控制命令方位
firm B_AM209D=P2^3;
%读取视频处理器的控制命令
hollow Byte_w%r_AM209mm(unsign ASCII AM209mm_site,unsign ASCII AM209mm_account)
{
EA=0;
TXD_MHZ=0xFF;
A_AM209D=0;
GOVERN_AM209D=1;
AM209D_MOV();
MCSB_AM209D=0;
%读取视频处理器芯片的控制命令
TXD_MHZ=AM209D_site;
%输出指令作用方位
AM209D_MOV();
A_AM209D=1;
AM209D_MOV();
A_AM209D=0;
AM209D_MOV();
MDTA_MHZ=AM209mm account;
AM209D_MOV();
GOVERN_AM209D=0;
AM209D_MOV();
GOVERN_AM209D=1;
AM209D_MOV();
MCSB_AM209D=1;
AM209D_MOV();
EA=1;
}
3 实验设计
3.1 运动视觉跟踪的三维虚拟平台还原精度验证实验
为验证本文所提的运动视觉跟踪三维虚拟平台能够准确还原出物体运动的三维虚拟画面,进行相关实验。实验在某商场安全通道处安装了2台相同的摄像机,令2台摄像机的光轴在同一水平线上,实验过程中不更改摄像机位置。在特定时间区域内,每隔5 min截取运动物体的实际画面,将其组成画面序列,并输出运动视觉跟踪三维虚拟平台输出的对应三维虚拟画面序列。图6是运动物体实际画面序列,图7是本文平台输出的三维虚拟画面序列。
图7中的线条代表人体。对比分析图6和图7可知,图6中的人体运动主要集中在腿部。当图6中人体变换运动姿势时,图7中的三维画面虚拟线条也会出现相应的改变,验证了本文平台拥有较高的画面还原精度。为进一步验证本文所提运动视觉跟踪三维虚拟平台的画面还原精度,实验将运动物体的实际运动轨迹与本文平台的三维虚拟运动轨迹进行了对比,如图8所示。
图8中,实线部分代表运动物体的实际运行轨迹,虚线部分代表本文三维虚拟运动轨迹。可看出,两条曲线的重合率较高,即本文所提平台能够较好地对运动物体实际运动轨迹进行三维虚拟还原。
结合以上两个实验的实验结果可得出:本文所提的运动视觉跟踪三维虚拟平台拥有较高的还原精度。
3.2 运动视觉跟踪的三维虚拟平台可应用性分析
决策误差是评价运动视觉跟踪的三维虚拟平台应用性能的重要标准。使用者在选购运动视觉跟踪的三维虚拟平台时,往往对平台的应用性能较为看中。应用性较高的运动视觉跟踪的三维虚拟平台能够为使用者提供较为有力的决策信息,这在实际生活中具有重要意义。产生决策误差的原因一般是运动物体与空间的相容性较高,即两者的色彩度较为相近。这使得运动视觉跟踪三维虚拟平台在处理运动物体跟踪画面的三维坐标时,无法分辨精准,导致误差的产生。此类误差能够通过提高摄像机镜头分辨率消除。
基于第3.1节所做的实验,计算本文所提运动视觉跟踪三维虚拟平台的决策误差,其结果如表1所示。
由表1可知,本文所提运动视觉跟踪三维虚拟平台的决策误差远低于实际应用中约定俗成的决策误差标准,验证了本文平台拥有较高的可应用性。
4 结 论
本文构建了运动视觉跟踪的三维虚拟平台,其由运动视觉跟踪监测模块、视频处理显示模块、运动视觉三维转换模块和计算机组成。利用运动视觉跟踪检测模块中的摄像机模拟人眼,进行运动视觉跟踪,并将其转换成三维坐标视频文件。视频处理显示模块进行三维坐标视频文件的处理和显示工作,并将视频文件的编码传输到运动视觉三维转换模块。运动视觉三维转换模块将视频编码转换成三维虚拟图像,为使用者提供决策信息。软件给出了非线性跟踪下,三维虚拟画面的生成流程图,以及AM209mm视频处理器修正运动视觉跟踪画面的算法语言。实验结果表明,所提平台拥有较高的还原精度与可应用性。
参考文献
[1] 王春洁.基于三维虚拟残缺肢体画面运动行为识别仿真[J].计算机仿真,2014,31(7):399?402.
[2] 应再恩,平雪良,李正洋,等.基于视觉跟踪的机器人复杂轨迹模拟再现[J].机械设计与研究,2014,30(1):39?41.
[3] 鹏程,徐德.基于CAD模型的目标跟踪和定位算法研究[J].高技术通讯,2014,24(6):623?631.
[4] 王欣,袁坤,于晓,等.基于运动恢复的双目视觉三维重建系统设计[J].光学精密工程,2014,22(5):1379?1387.
[5] 王庆滨,邹伟,徐德,等.仿生眼运动视觉与立体视觉三维感知[J].机器人,2015,37(6):760?768.
[6] 张秋梅,高春华.运动视觉反馈训练对脑卒中偏瘫患者上肢功能的影响[J].中华物理医学与康复杂志,2014,36(4):278?280.
[7] 郑学汉,魏振忠,张广军.运动目标视觉跟踪测量系统与场地坐标系的快速统一方法[J].红外与激光工程,2015,44(7):2175?2181.
篇3
关键词:GIS 多传感器 联合 监控
中图分类号: 文献标识码:A文章编号:1007-9416(2010)05-0000-00
1 引言
随着数字技术的快速发展,监控越来越受到重视,各种类型的传感器大量安装在重要口岸和敏感地区,执行维护国家安全和社会稳定的重任。其中,视频和坐标类传感器(发现目标的坐标为主的传感器,如雷达、声纳、AIS、微传感器等)是常用的监视手段,而GIS系统是监控中常用的平台[1,5,6],它们各有各的特点。
目前视频传感器主要有基于CMOS和CCD的可见光、红外、可见光/红外综合(EO/IR)和微光夜视仪等。视频信息直观性强,实时性好,易于判读和理解,但监视的距离较近,而且光电和可见光传感器容易受到环境的影响,在恶劣天候下难以施行有效监测;而坐标类传感器,一般具有探测距离远、能够全天候工作、穿透性强、能对目标进行识别与跟踪等特点,但其直观性差,难以判读且容易出现误判等现象[3,4]。
GIS系统是计算机技术、图形学技术、数据库技术融合的产物,是一种利用计算机对有关地理、空间位置的数据进行存储、查询和显示的计算机支持系统,主要用来描述现实世界中地物在空间上的分布及其属性。GIS系统可借助计算机,将传感器及监控目标的空间特征信息进行可视化表达,为监控系统提供直观、清晰、全面的信息表达式,GIS系统能够快速获取某一空间地物的基本特征。虽然GIS数据详细准确,但其更新周期长,一般适合描述固定的地物等,对动目标描述困难[6]。
目前,上述传感器及GIS平台在监控系统中应用较为普遍,针对每一类传感器甚至是同一类传感器中的不同型号产品,往往都需要采用一套专门的处理系统[2,7]。这些专门的处理系统由于信息格式不统一、控制方式不一致,导致系统间难以实现信息共享,无法充分发挥多传感器联合监控的优势,造成设备和资源的严重浪费,本文针对现在监控系统中存在的问题及监控系统中常用传感设备的特点,提出基于GIS平台的多传感器联合监控系统,该系统以GIS平台为依托,以空间位置为中介,可实现多种传感设备的统一监视与控制,从而大幅提高监控的效果。
2 多传感器联合监控的原理及实现方法
2.1多传感器联合监控的原理
视频传感器自身的位置是绝对的,其方位角以及俯仰角也是可以确定的,如果视频传感器带测距功能,则可以得出目标的具体方位;也可以确定目标的位置;而GIS数据则是空间和时间上的结构体。因此,可以考虑以空间位置作为钮带,将多种传感器有机结合在一起。各种监控设备虽然工作原理及流程都不尽相同,但它们的共同点是可以提供或者利用目标的位置信息,因此,本文提出一种以地理信息平台为依托,实现多传感器的联合监控的方案,其流程如图1所示。
当传感设备1发现目标并获取目标坐标后,传感设备1将目标位置提供给地理信息系统,地理信息系统在地图上显示出该目标并计算出目标相对于传感设备2的方位,并将此方位转换为传感设备2的引导控制信息,传感设备2可根据此引导控制信息,自动转向该目标,这样就实现了传感器备1与传感设备2的联合监控,同理可实现多个监控设备间的联合监控。
2.2经纬度与坐标信息的转换方式
多传感器联合监控的关键在于实现多传感器空间位置、目标空间位置的统一描述,具体的处理方式主要表现为经纬度与空间坐标的转换。假定其他传感器与视频传感器自身的经纬度已知,分别为 , ,经纬度分别为 C点为其他传感器发现的目标的位置,其中 C相对A方位 ,距离, 问题就转换为了求取目标C相对视频传感器B点的方位 以及距离 ,其关系如图2所示。
根据求出的距离及角度,就可以计算出视频传感器转向该目标点所需要转动的方位角高低角以及镜头相关参数,从而可以建立目标与传感器控制的映射关系。
3 基于GIS多传感器联合监控系统的结构
基于GIS多传感器联合监控系统主要包括两大部分,即传感器和联合监控平台,其结构如图3所示。该结构可以作为一个中心作用,也可根据实际需要灵活扩展为多级。从图中可以看出,多传感器联合监控平台主要包括三个模块,即视频处理与控制模块、目标处理与控制模块和GIS综合处理模块,其中视频处理与控制模块与视频传感器相连,坐标传感器与目标处理与控制模块相连,GIS综合处理模块与视频处理与控制模块,以及目标处理与控制模块均相连,每个模块的具体功能如下:
视频处理与控制模块:视频处理与控制模块主要分为视频处理子模块和传感器控制子模块,其中视频处理子模块主要完成视频的采集、处理、压缩、存储、回放、编辑等功能,传感器控制子模块主要完成对多种视频传感器的统一控制。
目标处理与控制模块:主要包括两个部分,即目标处理子模块以及传感器控制子模块。目标处理子模块完成目标信息的获取、分类、判别、存储、编辑等功能,而传感器控制子模块实现对目标传感器的统一控制。
GIS综合处理模块:GIS综合处理模块以空间数据库为支撑,接收视频处理与控制模块、目标处理与控制模块的传感器、视频及目标信息并在电子地图上统一显示,并对这两个模块发送传感器控制信息或者视频信息,实现对另外两个模块的交互进行管理与协调,从而实现多传感器的联合监控。
基于GIS的多传感器联合监控系统的工作流程为视频传感器将获取的视频信息以及视频传感器的参数状态传送至视频处理与控制模块,由视频处理子模块处理后交给GIS综合处理模块,在电子地图上进行显示。同样,目标处理与控制模块接收来自坐标传感器的目标数据并进行处理后交给GIS综合处理模块并进行统一显示。GIS综合处理模块即可以接收各种信息,也可以通过视频处理与控制模块、目标处理与控制模块对各种传感器进行控制。
4 联合监控系统的典型功能及应用
4.1 监控点优化配置
多传感器联合监控系统需要根据监控区域及监控任务设置监控点,仅根据经验进行设置,一般难以达到最佳效果。该系统可以利用GIS系统的数据分析功能,实现多个监控点的优化配置。在电子地图上输入监控点位置、传感器数量及通视条件要求等相关参数,通过GIS分析,可以获取传感器的监控范围,明确监控点的监控能力。采用该方法可以灵活更改传感设备的地点以及数据,从而获取最优的监控点配置方案,为监控点的准确设置提供科学依据。此外,通过该系统还可对整个监控系统的监控区域、热点区域、监控设备的重复度、监控区域的重合度等情况进行评价。
4.2 同类传感器联合监控
同类传感器联合监控,可以有效扩大传感器的监控范围,提高监控的效能,例如多视频监控镜头、多雷达监控等。采用多视频镜头监控,在一个监控点安装多个视频传感器,可实现同时对监控点周围360度全方位监控。此外,当发现重要目标后,仅从一个方向对目标进行监控可能是不够的,这时可以由GIS进行分析,找出一些最合适的传感器对目标从各个方位进行监控,从而确保对重点目标的全方位无间断监控。同类传感器联合监控实现方便,易于操作。
4.3 异类传感器联合监控
异类传感器联合监控,可以充分发挥各种传感器的优势,实现多传感器的优势互补。例如雷达和视频传感器的联合监控中,当雷达发现目标后,可以控制视频传感器转向该目标,通过目标的视频信息进行验证,从而对目标的属性进行正确的判断,有利于后续处理;同理,当视频传感器发现目标后,也可以通知具有跟踪功能的坐标传感器锁定该目标并进行跟踪,视频传感器可以继续对其他目标进行监控。采用该方法,各监控点可以根据实际需要配置传感器,进而充分发挥监控的效能。
本文为全文原貌 未安装PDF浏览器用户请先下载安装 原版全文
4.4 GIS与传感器结合
4.4.1 利用GIS数据实现对监控内容的判读
当发现可疑目标后,如果无法确定是地物还是目标,此时可以利用GIS数据实现对监控内容的判读,具体有两种措施:一是直接借助GIS数据进行判断,如果在该位置上没有固定地物,则可认为该可疑目标是一个目标,否则,可以认为该目标是一个地物;二是根据该区域的特性进行判断,例如在一个陆地上一般不会出现船只,而在海洋上则可能是一个船只。
4.4.2 利用监控数据对GIS数据进行更新
GIS的数据一般更新较慢,很难体现周围境况的实时变化,当地物发生变化后,可能影响监控效果。而根据监控获取的数据,在经过人工判定确认后,可以对GIS数据进行更新,从而形成一个闭环的系统。
4.5 热点区域监控
有时需要对监控区域内的热点区域进行监控,因此,需要多个传感器进行联合监控。如果所有的传感器一直对该区域进行监控,会照成监控设备的浪费,甚至导致某些区域成为监控的盲区,而采用本系统,可以从全局的角度出发,根据热点区域的位置及监控任务的改变而灵活地对传感器进行调度,从而实现对热点区域的准确监控,同时提高监控设备的利用效率。
4.6 多传感器联合监控综合显示
该系统可以将多种传感器自身及其发现的目标标注在电子地图上形成综合态势,供用户在宏观上进行把握;此外,当用户关注某一目标时,可以将相关的视频信息、目标属性信息以及地理坐标信息统一显示,从而提高目标判读与识别的准确性;还可在人工的干预下,实现目标、属性信息、相关地理坐标信息以及视频信息的关联,供用户在查看时更加容易。
5 结语
本文提出了一种基于GIS平台的多传感器联合监控方案,以GIS为平台,以空间位置为中介,实现对各种传感器的统一控制,并将多种传感器(视频传感器、坐标类传感器)采集的信息进行GIS平台级的融合,实现对监控区域的无缝监视,有效了提高多种传感器联合监控的效果。目前,该方案已经应用于某大型监控系统,效果较好。
参考文献
[1] 刘先省,申石磊,潘泉.传感器管理及方法综述[A].电子学报,2002.
[2] 谭树人,张茂军,徐伟.多传感器同步图像采集系统的设计[A].视频技术应用于工程,2006.
[3] 沈江,王粟,徐曼.多传感器动态数据融合自适应控制系统[A].组合机床与自动化加工技术,2006.
[4] 世界传感器发展现状[Z/OL].省略,2008.
[5] 甄君,夏俊清.多手段信息侦察的综合应用技术研究[A].专题技术与工程应用,2008.
[6] 蔡志浩,彭晓源.基于地理信息系统的虚拟战场态势显示[J].系统仿真学报,2003.
篇4
关键词:多媒体技术;应用;设计
一、 计算机多媒体技术简单论述
(一)多媒体的概念
多媒体技术是可以将文本、图形、图像、音频、视频等多媒体信息,经过计算机设备的获取、操作、编辑、存储等终合处理后,以单独或合成的形态表现出来的技术和方法。
(二)计算机多媒体的几个主要特点
1、多样化
多样化指的是信息媒体的多样化,如早期的计算机处理的信息,主要形式是文本,比较单一;多媒体技术使计算机处理的信息呈现出多样化,不仅有文本,还有图形、图像和声音;
2、交互性
交互性指提供人们多种交互控制能力,如电视虽然也是以图、文、声、像作媒体,但电视观赏的全过程人均是被动的,而多媒体的相互交流的,是主动的;
3、集成性
集成性是指不同媒体信息、不同视听设备及软、硬件的有机结合。
二、 计算机多媒体技术在教学中的应用及意义
在教学中使用多媒体技术,主要内容包括多媒体文字、图像、音频、视频信息的采集,静态图片、动画、视频图像的处理、加工和存储方法,宽带网络信息化环境下多媒体技术的应用等。
(一)数字图像处理技术
图像处理是利用计算机技术对数字化图像改变形态、尺寸,色彩调整,编辑调整,文件格式转换等,被广泛地应用于多媒体产品制作、平面广告设计、教育教学等领域。
在计算机多媒体技术教学中的可视化内容,展现在课堂教学上,基本出发点展示形象、逼真的自然现象,自然规律,科普知识,以及各个领域的尖端技术等。能够强化形象思维模式,使其性质和概念更易于接受。
(二)数字音频处理技术
数字音频信号是多媒体技术经常采用的一种形式,它的主要表现形式是语音、自然声和音乐。通过这些媒介,能够有力地烘托主题的气氛,尤其对于自学型系统和多媒体广告、视频特技等领域,数字音频信号显得更加重要。
(三)视频处理技术
动画是多媒体产品中最具吸引的素材,具有表现力丰富、直观、易于理解、吸引注意力、风趣幽默等特点。动画制作需要动画的绘画、制作知识和动画制作软件的使用技巧。
课堂上的演示动画和课件等等另外,学生受到教师的控制而能够认真观看教师机的演示;在进行教学时,学生能够培养丰富的想象力,动手及制作的欲望,师生之间的互动效果非常好;教师使用电子黑板和电子白板,能够方便教学。
(四)CAI远程教育的应用
根据一定的教学目标,在计算机上编制一系列的程序,设计和控制学习者的学习过程,使学习者通过使用该程序,完成学习任务,这一系列计算机程序称为教育多媒体软件或称为CAI(Computer Assist Instruction计算机辅助教学)。
CAI的应用,使学生真正打破了校园界限,改变了传统的“课堂教学”的概念,突破时空的限制,接受到来自不同国家、教师的指导,可获得除文本以外更丰富、直观的多媒体教学信息,共享不同学校的教学资源,它可以按学习者的思维方式来组织教学内容,也可以由学习者自行控制和检测,使传统的教学由单向转向双向,实现了远程教学中师生之间、学生与学生之间的双向交流。
三、 计算机多媒体的设计提议
(一)完善和制作多媒体的操作系统
要实现多媒体技术,计算机不仅需要大容量存储器、处理速度快的CPU(中央处理器)、CD-ROM、高效声音适配器,以及视频处理适配器等多种硬件设备,而且需要计算机软件。借助计算机软件,人们才能在多领域、多学科中使用计算机,从而充分地利用多媒体技术解决相关问题。
(二)教学素材的多方收集和合理化选择
文字素材:文字是非常重要的一种素材,其主要在于教学内容、名称、目录、注释、提问、帮助信息等,艺术化的文字还起着美化版面的作用。为了教学中文字信息的美观多样,应在W indows中尽可能多地安装一些中文字体。
动画素材:教学中使用动画能够增色不少。常见的做二维动画的软件有AnimatorPro,三维动画多用3DStudio、3DStudioMAX,两维变形动画多用Morph等。动画是用计算机制作的动态图像,其常见格式有*. flc文件、*. gif文件(常用于网页制作)等。
视频素材:是指在教学中播放的一种既有声音、又有活动画面的文件,视频素材的来源大多是VCD或DVD,一般通过视频捕捉卡,用Video forW indows的工具VidCap和VidEdit采集和编辑。
图形素材:处理图形图像的软件最常用的有Photoshop、CorelDraw、Photostyle、iphotos等。或从网络上获取图片、通过扫描仪获取图片、捕捉DVD上的图象。
(三)素材信息的优化、整合
多媒体使用素材是多媒体教学的基本元素。按照预定的教学目标及要求,利用创作工具把各种媒体素材整合创作为一个具有交互性的教学内容。经过试运行检验和使用评价,必要时还要作修改与完善。能否达到预想的效果,取决于所用的创作工具和创作者对软件使用的熟悉程度。
参考文献:
[1] 林逢春.浅议多媒体课件的开发制作[J].情报探索, 2005.
[2] 钟玉琢、沈洪、冼伟铨等编.多媒体技术基础及应用[M].清华大学出版社,2009.
篇5
传统的广播电视制作技术主要采用的是线性编辑的制作方案,此方案的主要实现方式是通过机械运动将视频信号在磁带上进行顺序记录。因此在进行视频制作与编辑的时候,需要能够按照顺序进行图片的查找以及替换,采用线性编辑的方案会不可避免地产生于原图片时序不等问题,因此随着编辑次数的增加,图像、视频的质量都有明显的下降,出现了信号缺失等方面的问题。目前随着高速硬件处理器的不断发展以及数字图像处理领域技术的进步,非线性技术逐步取代了传统的线性编辑方案,在现代广播电视技术中取得了重要的应用。
非线性编辑的主要特征是无需将素材在存储介质上进行操作,相对于传统的线性编辑技术,非线性编辑不关注素材存储的思绪,能应用计算机实现视频的编辑以及诸如特技之类的多种处理效果。非线性编辑技术的实现依赖于高速处理硬件的发展以及数字图形处理技术的突破,形成了一个软硬件构成的综合处理系统。目前一个完整的非线性编辑系统的硬件一般由计算机、视频卡、声卡以及专用板卡和设备构成,系统还包含视频信号的标准输入输出口(如SDI标准接口)。系统可以完成视频信号的A/D或者D/A转换,实现对数字形式视频信号的处理。目前广泛应用的软件主要有二维、三维动画处理软件以及声音处理软件,目前软件主要是面向对象的软件,对于软件类别的依赖明显减少,具备了充分的通用性,目前软件技术成为非线性编辑系统的关键。
2非线性编辑的在广播电视应用中的优势
非线性编辑技术与数字图形技术的发展、计算机技术的发展都具有直接的关系,是一门新兴的应用学科。非线性编辑在广播电视技术应用中具有较为明显的技术优势以及特点。首先非线性编辑具有较为良好的实时性,系统实现音频以及视频采集时,可以做到编辑字幕等操作完全实时;其次,非线性编辑的后期制作较为方便,非线性编辑是建立在数字技术的基础上,素材都以数字信号存储在计算机上,因此可以方便实现信号的共享以及传输,在后期制作方面具有明显的优势;同时传统的线性编辑技术需要进行审阅、比对、对接等重复的机械劳动,而且工作效果不能够尽如人意,非线性编辑系统可以通过控制系统随时调用,方便实现对应帧的搜索;最后基于良好的交互式软件,非线性编辑能够极为方便的实现各种编辑,使得制作的剧目丰富多彩,表现力极强。非线性系统的高度集成的特点也有效降低了视频编辑传播设备投资。非线性视频编辑的处理对象是经过数字化处理数字视频信号,因此可以与处理其他的数字信号一样使用计算机进行反复、自由的各种处理。在非线性编辑系统中,编辑过程实际上是编辑点以及特级效果的数字记录,因此对于帧的编辑以及顺序调整等都不会引起画面质量的下降,从而有效克服了传统线性编辑的缺点。非线性编辑技术中,系统硬件高度集成,同时可以与互联网技术集成,有效实现资源共享以及数据的传播。由于数字信号的压缩率较高,因此在同等的硬件系统中,图像的效果会得到进一步的加强,对于简单应用,只需要一台多媒体计算机以及视频卡等,综合应用Premiere等处理软件就可以轻松实现。
在广播视频处理中,非线性编辑的工作流程氛围输入、编辑以及输出三个基本步骤。与具体的系统对应,其工作流程可以进一步细化。一般而言,首先是对于是视频、音频等信号的采集,需要采用A/D方式实现视频信号、音频信号的数字化,使得素材成为处理器能够处理的二进制数字信号;第二部是编辑,主要是对素材的入点以及出点进行分析处理,同时还需要进行诸如转场、特效等特技的处理,并进行效果合成。在视频技术处理中,非线性的编辑方式可以完美实现字幕的制作,保证字幕的实时效果,在制作中也具有充分的现行模板可以使用,最后就是视频的输出,要将处理完成的处理信号生成可以观看的视频文件,完成全部的制作过程。整个过程在处理过程中主要是实现了编辑对象的数字化,因此处理的一般流程就包含素材的数字化以及数字化的处理技术,由于目前图像处理技术领域中新技术、新理论的不断出现,非线性编辑进行视频处理在广播电视技术应用就越来越广泛。
4结语
非线性编辑技术是高速处理器以及数字图形技术不断发展的新技术,在进行广播电视编辑技术中克服了传统线性编辑技术在实时性、画面质量、操作性等方面的缺点,能够高效率、高质量完成视频的编辑全过程,具有明显技术优势的非线性编辑技术在目前的广播电视系统中获得了越来越重要的应用。
作者:高彦秋 张海媛 单位:吉林省梨树广播电视台
参考文献:
[1]杜耀刚,蔡安妮,孙景鳌.一种高效的DCT域图像下采样方法[J].中国图象图形学报,2005(04).
[2]陈建乐,刘济林,王兴国,陈国斌.单通道视频编码的可变码率控制方法[J].浙江大学学报(工学版),2005(03).
[3]石美红,李永刚,张军英,吴戴明.一种新的彩色图像增强方法[J].计算机应用,2004(10).
篇6
电子摄像系统已广泛应用于军用及民用测绘系统中,但是效果受到其载体不同时刻姿态变化或震动的影响。当工作环境比较恶劣,尤其是在航空或野外操作时,支撑摄像机平台的震动会引起图像画面的抖动,令观察者视觉疲劳,从面产生漏警和虚警。所以在运行中,如何稳像成为十分重要的问题,特别是在长焦距、高分辨力的监视跟踪系统中更加突出。具璞蒿、实性性强、体积小巧等特点,得到更广泛的应用。
图1
稳像系统的反应速度是电子稳像要解决的关键技术之一。传统的基于“摄像机-图像采集卡-计算机”模式的稳像系统、图像检测和匹配算法全部由计算机以软件方式实现。尽管当今计算机的性能很高,能够部分满足单传感器电子稳系统的实时处理要求,但在以下几个方面有着难以解决的问题:首先,其固有的串行工作方式使得单计算机难以适应其于多传感器视频处理系统的实时稳像,阻碍了在实际中的应用adw欠,传统的图像采集卡中能将采集图像数据实时传输给计算机,而不能传输给标准接口的视频监视设备lk之很多应用场合对听要求很高。因此,研制专用的电子稳像平台,既能实时地高速获取视频数据,又能将数据实时地传后续的图像处理系统,既有实际意义又有工程价值。
1 系统涉及的关键技术
摄像头输入的PAL制式电视信号首先通过视频处理接口完成对其解码、同步和数字化的工作,数字化后的图像信息进入到由FPGA实现的帧存控制器中,完成数据的交换(数据的缓冲),同时完成系统要求的去隔行和放大的操作,最后处理好的数据通过VGA控制器,完成时序变化,经视频、A变为模拟信号送到VGA监视器上实时显示。
图3
1.1 视频处理接口
由于在进行视频处理时,多为从摄像头输入模拟信号,如NTSC或PAL制式电视信号,除图像信号外,还包括行同步信号、行消隐信号、场同步信号、场消隐信号以及槽脉冲信号等。因而对视频信号进行A/D转换的电路也非常复杂。Philips公司将这些转换电路集成到了一块芯片中,从而生产出功能强大的视频输入处理芯片SAA7111,为视频信号的数字化应用提供了极大的方便。
系统设计采用SAA7111对复合信号进行采样、同步产生、亮色分离并输出标准的数字化信号。SAA7111输出的数字化图像信息符合CCIR.601建议,PAL制式的模拟信号数字化后的图像分辨率为720×572,像素时钟13.5MHz。在本稳像系统中要求图像输出符合VGA(640×480,60Hz)标准,因此在采集数据时要对数据进行选择,避开行、场消隐信号和部分有效像素信息,在较大的图像中截取所需要的大小。SAA7111向帧存控制电路输出像素时钟(LCC2)、水平参数(HREF)、垂直参考(VREF)、奇偶场标志信号(ODD)和16位像素信息(RGB565).其中LCC2用来同步整个采集系统;HREF高电平有效,对应一行720个有效像素;VREF高电平有效,对应一场信号中的286个有效行;ODD=1时,标志当前场为奇数场;ODD=0时,标志当前场为偶数场。采用16位RGB表示每个像素的彩色信息。图1(a)为数字化图像中的一行像素的时序图。其中两个HREF分别表示有效行的起始与结束位置,实际为一个信号;可以清楚地看到一行中有效的720个像素与像素时钟LLC2的对应关系,在采集时通过帧存器控制电路选择其中部的640个像素进行采集。图1(b)为一帧数字图像的输出时序图。可以看到在第624~22行时,VREF处于无效状态,因此在后续的采集中,这部分的信息不予处理并通过ODD的电平区分奇偶场数据。
图4
1.2 去隔行支持
PAL制电视信号采用隔行扫描机制,采用人眼的视觉暂留来实现两场1/50s扫描312.5行的图像构成625行(一帧)图像。而标准的VGA显示模式采用逐行扫描方式,在一个扫描周期内实现对图像的完全扫描。因此需要对视频信号进行去隔行处理。视频信号在经过缓冲后,按照取样时钟把经过模数转换的数字信号送入存储器缓存,通过数据内插的方法进行数据扩展,即相邻行之间按照一定的算法进行加权,从而得到内插行的数据,再以适当的速度读取处理后的数据,即可实现倍行频/倍场频的扫描。倍行频扫描可以消除行间的闪烁现象,倍场频扫描虽然行扫描频率不变,但是场频加倍,即能消除行间闪烁现象,还可以消除场间的大面积闪烁。去隔行问题的实质就是在每一场中填补被跳过的那些行,其过程如图2所示。
实际上为实现去隔行已经提出了很多简单的滤波器。一种选择是用同一场中的垂直内插值,这是个一维二倍上转换的问题。理想的垂直滤波器是一个半带低通滤波器。然而,这个滤波器要求无限长度冲击响应是不可实现的。实际应用中使用的是短得多的滤波器。最简单的是行平均,它用丢失行的上一行和下一行的平均来估计该丢失行。在图2中,对于第t场,D=(C+E)/2。由于没有使用时域滤波,所以它沿时间频率轴具有全通特性。为了改进性能,另一种选择是使用更长的垂直内插滤波器,其频率响应更接近理想的半带低通滤波器。对于第t场的行,满意的内插方法是D=(A+7C+7E+G)/16。以上两种方法都是只用了垂直内插。一种替代方法是使用时间内插。值得注意的是,对于一场中每个丢失行,在同一帧的另一场中有一个对应行。一个简单的时间内插方案是复制此对应行,即D=K,J=C。这种方法称为场合并。因为每一个去隔行帧都由合并两场获得,但是这两场的时间内插是相反的(对于某些特殊图案可能会产生视觉人为失真)。由于只在时间方向上进行了滤波,因此在垂直方向上是全通的。
为了改进性能,可以使用一种对称的滤波器,例如,对前一场和后一场中的对应行去平均以获得当前场中丢失的行,即D=(K+R)/2。这种方法称为场平均。然而这种办法内插任何一场需要涉及三个场,需要两帧存储器。与场合并的方法相比,在存储器容量和延时上有不可忽视的增加。为了在时间和空间人为失真方面达到折衷,较好的方法是既用垂直内插也用时间内插。例如,通过对同一场中上一个和下一个像素以及前一场和后一场取平均进行内插的办法得到一个丢失的像素。综上所述,当成像的景物在相邻两场之间静止时,在奇数场中丢失的偶行数应该与前一个和后一个偶场中对应的偶数行完全一样。因此时间内插将产生精确的估计。另一方面,当景物中存在运动时,相邻场中对应行可能不在同一个物置上,时间内插将产生不可接受的人为失真。而同时使用空间和时间平均的方法将产生不太严重的人为失真,但在存储器容量和反应时间方面作出牺牲。
通过上述方案的对比及系统的具体要求,设计中采用了场合并的办法,具体实现由帧存控制器完成。
1.3 帧存控制器
帧存储器是图像处理器与显示设备之间的通道,所有要显示的图形数据先存放到帧存储器中,然后再送到显示设备进行显示,因此帧存储器的设计是图形显示系统设计的一个关键。传统上,可以实现帧存储器的存储器件有多种,如DRAM、SDRAM及SRAM等。DRAM、SDRAM属于动态存储器,容量大、价格全家但速度较慢,且在使用中需要定时刷新。对于基于FPGA的视频处理器,需要设计专用的刷新电路,增加了系统设计的复杂程度。SRAM速度高、接口简单、容量较小。随着集成电路技术的不断发展,容量不断增大,价格也不断下降。在需要高速实时显示的视频处理系统中的使用越来越普遍。
帧存控制器的设计对于实现两种不同视频系统之间的图像信号的存储、采集和显示显得非常重要。为了保证数据处理与采集的连续,设计中使用了两组帧存储器(FRAM1、FRAM2),由于数字化的图像每帧大小为640×480=307200(16bit)共300K×16bit的数据量,笔者使用每组512K×16bit的静态存储器,存储时间为12ns,可以保证快速地读出和写入图像数据。图3为帧存控制器的逻辑框图。
由于输入信号为隔行扫描的图像数据,显示输出需要逐行扫描数据,因此数据存入帧存储器时需要进行处理。设计中采用场合并行法,将两场的数据写入一个帧存中,构成一幅完整的逐行扫描图像,系统利用VREF信号对此进行控制,产生的帧切换控制信号控制数据在两个帧存中的切换。当VREF信号有效时,表明新的一场开始了,此时无效行计数器开始工作,控制不需要采集的图像行,计数到阈值后,有效行计数器开始工作,控制所要采集的图像行,并发出高位地十信号A[18..11];同样,当HREF有效后,无效像素计数器开始计数每行中的无效像素,然后有效像素计数器开始计数需要采集的行听有效像素;每次计满640个像素后,等待下一次有效行信号的到来,同时将有效行计数器加1。由于系统选用的帧存容量较大,因此利用ODD的反相信号作为帧存地址的A10,为每行图像提供了1024个存储空间(实际使用640个),可以简化数据写入与读出的控制电路。隔行的视频信号就会被逐行地存储到帧存体中。总线隔离与控制电路用来完成数据在帧存中的写入与读出的同步。由于采用SRAM作为帧存体,有效像素的写入与后续视频接口的读出不能在一个帧存体中同时进行,系统采用双帧存轮流操作的方法,系统采用双帧存轮流操作的方法:当数字化后的图像信息写入其中的一个帧存时,帧存控制器将另一个帧存中的像素顺序读出,送到显示设备,反之亦然。
1.4 视频图像的放大变换
应用栅格理论几何变换处理过程可以按下面方式进行描述:给定一个定义于点阵Λ1上已采样信号,需要产生一个定义于另一个点阵Λ2上的信号。如果,Λ1中的每一个点也在Λ2中,那么此问题是上转换(或内插)问题,可以先将那些在Λ2中而不在Λ1中的点添零(即零填充),然后用一个作用于Λ2上的内插滤波器估计这些点的值;若Λ1)Λ2,即为下转换(或抽取)问题,可以简单地从Λ1中取出那么也在Λ2中的点。然而,为避免下采样信号中出现混叠,需要对信号进行预滤波,以将其带宽限制到Λ2*的沃格纳晶体。上转换和下转换的过程示于图4(a)、(b)中。更一般的情况,如果Λ1和Λ2互相不包含,就需要找到另一个即包括Λ1又包括Λ2的点阵Λ3,可以先将Λ1上采样到Λ3,然后再下采样到Λ2。此过程示于图4(c)。图4(c)中Λ3中的中间滤波器完成两个任务:首先,内插出Λ1中漏下的采样点;其次把Λ3中的信号频谱限制于Λ2*的沃格纳晶格。
由于系统中进行放大变换采用FPGA实现,因此本文讨论的重点在于如何简化实现并提高转换速度,上转换中的上采样过程为:
(1)式中Ψs,1和Ψs,3分别为原理图像和上采样信号;U(.)为上采样运算;Λ2\Λ1表示在Λ2而不在Λ1内的点的集合。插值滤波器的定义如下:
(2)式中,d(Λ)为栅格Λ的采样密度;v*表示栅格Λ的转逆栅格的Voronoi单元,即栅格Λ原点的单位元,它向所有栅格点平移将会无重叠地覆盖整个连续空间。最简单的插值滤波为线性插值,也可以采用二加权滤波的方法。图像的缩放还可以采用3次样条插值和小波分解的方法,虽然这些方法在理论上可以取得很好的图像缩放效果,但计算复杂,即使采用快速算法,也难以实现视频图像的实时显示。
针对视频信号数据量大、数据流速度的特点,采用FPGA设计,可以完成帧存控制、视频信号的实时放大与叠加功能。基于运算速度与算法实现的难易程度分析,对视频信号的放大采用了简单的线性插值的办法,原理如图5所示。视频信号是以场或帧进行存储的,由于数据写入时存储地址与图像显示的空间位置有确定的对应关系,因此系统需要的放大处理就变为对帧存储体的地址线的控制问题。
对于本系统具体的4倍放大要求,将行同步信号先进行二倍行使能运算,并利用场同步信号对该寄存器进行复位,将生成后的二分频行同步信号控制行地址发生器,也就是产生帧存储器所需的高位地址;类似地利用像素时钟、行同步信号和场同步信号就可以得到所需的低位地址。由于在帧存控制器向帧存储器写入数据时采用了一行点1024个位置的办法,所以在低位地址后连接了一个比较器,当产生的低位地址小于640时,帧存储器的读信号有效,否则无效,以保证不会混叠入无效的数据。
1.5 VGA接口控制器
标准的VGA(640×480,60Hz)接口需要提供以下几组信号:3个RGB模拟信号、行同步信号HS和场同步信号VS。它的信号时序如图6所示。
图7
图6中VS为场同步信号,场周期为16.683ms,每场有525行,其中480行为有效显示行,45行为场消隐区,场同步信号每场有一个脉冲,该脉冲的低电平宽度为63μs(2行)。行周期为31.78μs,每显示行包括800点,其中640点为有效显示区,160点为行消隐区(非显示区)。行同步信号HS每行有一个脉冲。该脉冲的低电平宽度为3.81μs(即96个脉冲)。因此,VGA控制器的任务就是按要求产生所需要的时序。
DISCLK为视频显示时钟,频率为25MHz,首先输入到模等于800的像素计数器中,输出的计数值与一个预先设好的比较器进行比较,当计数器的值大于160时,输出高电平,反之输出低电平,作为行同步信号;同理,利用一个模等于525的计数器对行同步信号进行计数和一个阈值为45的比较器可以产生所需要的场同步脉冲VS。
产生的行、场同步信号和像素显示时钟分别被送到两个地址发生器中,产生所需要的控制帧存储器的地址信号。由于前面介绍的帧存控制器中采用为每行数据提供1024个存储空间的办法,因此在数据读出时也要进行相应管理。低位地址发生器产生的地址数据与一个比较器进行比较。当地址小于640时,帧存储器的读信号MEMRD位低电平有效,否则无效,这样有效像素数据就被完整地提出。由于VGA是一个模拟的接口标准,RGB彩色信息需要输入模拟量,因此帧存储器输出的数字信息还要经过D/A变换。系统先用飞利浦公司出品的TDA8771AH,它内部集成了三个视频D/A转换器,基于电阻网络架构,转换速率最高可达35MHz。由于它专用于数字电视、视频处理等相关领域,因此使用十分简单,只需要提供24bit数字信息和一个转换时钟即可。VGA控制器原理图如图7所示。
图8
2 系统集成
综上所述,完整的电子稳像系统结构如图8所示。摄像头输入的信号采用PAL制式,经过视频处理接口后形成RGB565格式的数字视频信号和控制信息;帧存控制器作为整个平台的核心,在将数据写入帧存储器的同时,对数字化的图像信息进行去隔行处理,再将数据读出送往VGA控制器时进行放大变换。VGA控制器则负责将数据按照VGA标准时序送往显示器上。
篇7
>> 基于Directshow的VMR视频捕获的实现 基于DirectShow的视频处理Filter组件设计与实现 基于directshow的视频播放器设计与实现 基于Directshow的H.264网络视频监控客户端实现 基于Directshow的视频缩放分析研究 基于DirectShow架构的无线视频服务系统设计研究 基于VPN技术的远程视频监控的实现 基于VPN的远程视频监控的实现 基于WiFi的远程视频测控系统设计与实现 基于DirectShow的无线音视频采集与传输系统的研究 基于VPN的全数字化远程视频监控系统的架构与实现 基于DM642DSP的远程视频监控系统设计与实现 基于OMAP912远程视频监控系统的设计与实现 基于DirectShow的目标识别系统研究 基于DirectShow技术的网络媒体点播系统 建筑施工现场中基于3G技术远程视频监控系统的研究与实现 远程移动视频接访的设计与实现 基于简易视频展示台的教学设计案例 基于Linux的远程访问VPN实现 基于Android的SIP远程视频监控系统的设计 常见问题解答 当前所在位置:l.
[2] 王安,仲丽媛,孙加军. 基于DirectShow和UDP协议的网络视频监控系统[J].计算机工程与设计,2010,31(12).
[3] 张振.基于DirectShow的P2P视频会议系统研究与设计[D].武汉:武汉理工大学,2009.
[4] 曾华山,宋钰.基于DirectShow的VMR视频捕获的实现[J].电脑知识与技术,2010,9(25):7110-7111.
篇8
一、背景
当前,高校的计算机基础课主要面向非计算机专业的大学一年级新生,教学以提升大学生信息素养为目标。随着电脑的普及和信息技术的发展,高校的计算机基础课不断面临新的挑战,计算机基础课的改革也在不断的探索中前行。为提升高校大学生的信息素养和应用能力,2012年教育部启动了大学计算机课程改革项目,批准了“以计算思维为导向的大学计算机基础课程研究”等22个项目,推动以能力培养为重点的大学计算机课程改革。当前,各大高校计算机基础课改革主要围绕计算思维和创新思维展开[1,2]。
二、体育系课程教学中存在的问题
在国外,计算机基础课实行不分级的差异型教学。教师可以开设各类计算机个性化课程以满足学生的各种需求,且课程内容可以由学生与教师商定,每门课设以若干学分,班级主要为10人左右的小班。然而,在我国,由于初等教育中的信息技术基础教学水平极为不平衡,高校生源复杂,以及目前高校的学生人数众多等的情况,如何有效地开展计算机基础教学改革则是一个亟待解决的难题[3]。
以笔者所在的学校为例,近两年来大学计算机基础课不断改革,取消了以往的分级教学,各专业初步建立了1+3的学习模式,第一学期各专业统一学习计算机基础的内容包括:PPT、Excel、图像处理、网络基础与网页制作;第二学期分为3个模块:多媒体技术应用、程序设计、数据处理。体育系通常选择多媒体技术应用模块,主要包括图像处理、动画设计、音频编辑与视频处理。
经过两年的教学实践,笔者发现体育系的计算机基础课程教学仍存在以下三个方面的不足。
1.学生刚入学时的计算机水平和计算机应用能力差异大。我校体育系的生源面向全国,其中东南沿海省市的同学在初中或高中就已学过计算机,对计算机知识有一定的了解,而有些偏远地区的同学可能极少接触过电脑,学生计算机水平存在严重的不平衡给教学带来了很大的困难。例如,若教学内容选择较为简单的内容,则对于那些基础较好的同学来说,所学的东西太简单,学习积极性降低;这部分内容若不讲,对于基础差的同学来说,他们很难跟上教学进度,也会挫伤他们的学习积极性,对后面的学习产生抵触情绪。因此,如何选择教学内容,对学生提高对这门课程的学习兴趣和积极性起着很重要的作用。
2.传统授课模式由教师在讲台前根据PPT逐条进行讲解或示范,学生在各自电脑前按照教师讲解的步骤一步一步地跟着学习或者操作,教学过程比较简单机械。对于一个半小时的课堂教学内容,学生往往难以消化,也很难一直集中注意力,容易被网络、手机等转移注意力,学习兴趣较低;同时,整个教学过程中学生缺乏自己思考的过程,得不到计算思维能力的训练。
3.在学习主动性和自学能力方面,体育系的同学与其他专业同学相比,有一定的差距。例如,目前Windows和Word部分,不再进行课堂讲授,而是开设自选的网络课程让学生自学,由于体育系的课程设置及体育系同学的学习习惯等因素,学生的学习自觉主动性没有其他专业好,因此,体育系的同学在网络课程中的受益程度很有限。
三、基于任务的教学新模式的探索
总结多年给体育系学生的授课经验,作者发现与其他专业的同学相比较,体育系的同学性格活泼好动,有很好的团队合作精神,围绕任务进行教学和学习基于任务驱动的教学模式更加适合体育系学生。为激发学生的学习兴趣和热情,可以根据教学内容设计针对性强、难度适中并融入计算思维的任务,引导学生利用已有知识来解决问题、完成任务,并启发学生运用计算思维的相关概念方法解决专业中的现实问题;在设计和实施任务时,注意培养学生间的团队协作,设立2~3人的学习小组,共同完成任务,引导小组成员在交流中探究解决问题的思路;任务完成后,按小组进行成果展示和评价,交流心得。在明确任务、完成任务、合作交流等教学过程中,引导学生主动学习,巩固已有知识,拓展新知识,培养计算思维能力,培养解决问题和实践创新的能力[4]。
基于以上模式,针对体育系教学中的现存问题,本文在教学方法、教学内容与考核三个方面提出了一些改进建议,并在实际教学中开始初步的探索。
(一)教学内容
目前两个学期的教学内容涉及的软件较多,每种软件的教学时间较短,学生还没来得及深入其中具有实用性的知识,就要开始学习下一个软件,经过一年的学习,学生对于每一种软件的掌握都很肤浅,即便在日常生活中需要使用某一种软件,也无法灵活使用。因此,建议每一学期的教学内容中只讲授两到三种软件,比如第一学期讲授Word、PPT、Excel,删除网页设计部分;第二学期讲授Photoshop、Flash以及简单的音频、视频处理知识,同时,加深现有的学习深度,结合实际应用设计案例,基于案例的任务来开展学习内容。例如:Word部分,开展简历制作、毕业论文编排等案例;Excel部分,设计与体育专业相关的“体育比赛成绩管理与分析”等案例,要求学生充分利用Excel的功能来解决与现实生活相关的信息管理、数据处理与分析等问题;在PowerPoint中,设计制作“自我介绍”或者制作体育课讲义等案例;PhotoShop中设计运动会海报制作等案例;音频处理中设计录制歌曲等案例;视频处理中设计电子相册制作等案例;Flash部分设计体育课件制作等案例。
(二)教学方法
传统授课模式由教师在屏幕前讲解或示范,学生跟着学习或者操作,教学以教师为中心,而学生只是被动接受知识。为提高学生学习积极性和主动性,需要改变这一传统模式。今后教学要以学生为主体,教师设计与教学内容相关的生动案例,引导学生在完成案例任务的同时,进行自主学习;同时,积极与学生保持良好的交流,充分了解体育专业对计算机的需求点来改进教学内容,将计算机知识与专业知识有机结合[5]。
采用案例教学法,教师组织学生对教学案例进行思考、分析,促进学生对概念和操作的理解。以PPT为例,为某知名运动品牌公司制作一个PPT宣传作品,学生需要首先确立设计理念,为作品立意,根据立意收集相关素材,在制作过程中,学生会主动学习并使用PPT制作技巧。通过该案例,首先,可以让学生了解PPT作品的制作流程;其次,可以引导学生分析思考、展开讨论,培养学生分析问题和解决问题的能力;最后,可以让学生知道用如何用计算机知识解决与自己专业相关的实际问题,提高学生学习兴趣,拓宽学生解决问题的思路。
发挥学生主观能动性进行教学。例如,针对某一教学内容,可以请对这部分知识掌握得较好的同学来讲解。一方面,基础好的学生为了能讲好这部分教学内容,通常要在课下学习更多的知识,从而也不再认为这部分教学内容太简单而对上课产生消极的情绪;另一方面,也让基础差的学生了解到自己和好同学之间的差距,需要更加努力的学习才能迎头赶上,这样,整个班级的学习积极性就能很好得被调动起来。
建立学习小组并以小组的形式完成作业、课堂演示或答辩。将完成的出色的学生作业进行展示并表扬,良好的奖励机制对学生学习兴趣的激发起着不可忽视的作用。
(三)考核
好的考核方式对学生有激励和导向作用。目前,大学计算机基础课上下两个学期的最终成绩以期末考试成绩为主,通常期末占60%,平时成绩占40%。建议今后成绩的组成分散在整个学期的教学过程中,将学生平时的学习活动和实际操作都划入有效的评定范围内。例如,整个学期中,根据教学内容设计一些具体实用的文字处理、课件制作、数据统计等作业,最终的总成绩由平时成绩(包括学习态度、考勤等)、笔试和作业成绩组成,在作业成绩和平时成绩中,加入对学生参与的态度以及解决问题能力的考核,引导学生对计算机学习形成认真负责的学习态度,并逐渐养成良好的学习习惯、培养其自学能力等,从而提升学生各方面的综合素质。
四、结语
篇9
关键字:数字媒体 数字媒体应用 数字技术
数字媒体艺术专业是当代科技和艺术高度结合并涉及多学科交叉,它包含了计算机、艺术、文化、教育、科技、现代经营管理等广泛内容。随着计算机技术以及应用的发展,在世界信息化、国际化的背景下,数字影像、数字图书等数字出版、网络信息和文化传播、网络教育、网络推广等数字媒体应用在商业和教育中的应用日益增强。与此同时,动漫开发与设计、游戏开发与设计、影视特效等数字媒体艺术中的应用也得到了前所未有的发展。
1、数字媒体与数字媒体艺术
1.1数字媒体定义
有国家科技部组织863专家制定的《2005中国数字媒体艺术发展白皮书》在2005年12月份,白皮书中从新定义了“数字媒体”的概念。数字媒体是以信息科学和数字技术为主导,以大众传播理论为依据,以现代艺术为指导,将信息传播技术应用到文化、艺术、商业、教育和管理领域的科学与艺术高度融合的综合交叉学科。数字媒体包含了图像、文字以及音频、视频等各种形式,以及传播形式和传播内容中采用数字化,即信息的采集、存取、加工和分发的数字化过程。数字媒体已经成为继语言、文字和电子技术之后的最新的信息载体。
1.2数字媒体艺术
数字媒体艺术主要包括研究数字媒体的表示,处理、显示、记录、存储、传输、管理等各个环节的软件与艺术相结合的一门学科,融合计算机技术、数字信息处理、网络技术数和字通信等现代计算和通信手段,综合处理声音、图形、图像、文字等信息,使抽象的信息变成可感知、管理和交互的信息的软硬件技术。
2、数字媒体艺术研究的主要方向
数字化、信息化时代不断深入也迫使了媒体传播方式的本质的改革,诞生了包括数字图像、数字音频、数字影像、网络媒体和移动媒体等在内的多种数字传播媒介形式。这种变革给现代社会经济、文化、生活也带来了极大的促进,使之成为科学与艺术、媒体与设计、各媒体形式学科间交叉与综合的新的艺术形式,数字媒体艺术的出现打破了传统学科专业的划分,使得诸如动画、DV、电影、电视、因特网和流媒体等“技术的艺术”首次有了统一的技术形态和视觉艺术语言。
2.1数字图像处理技术
图像处理就是将图像转化为数字矩阵存放在计算机存储设备中,并采用一定的算法对其加工处理。图像处理技术的根本是数学,其核心不费为各种算法的设计和实现。图像处理技术涉及众多领域。如计算机科学、医疗、教育、科技、各业等领域。因各领域对数字图像处理的应用方向不一,大致分为:图像数字化:通过计算机采样和量化将图像变成能够为计算机处理的数字形式;图像的增强和复原:是指放大图像中的需要的信息,剔除图像中不需要的部分,让图像更接近所需;图像编码:在满足一定的保真条件下,对图像进行编码处理,达到压缩图像信息量,简化图像的目的。以便于存储和传输;图像重建:实现从新采样来构建图像。图像重建有代数法、傅立叶反投影法和使用广泛的卷积反投影法等算法;模式识别:用于图像的识别。例如:人脸鉴别、指纹识别等是模式识别的内容。目前主流的模式识别方法有:统计识别法、句法结构模式识别法和模糊识别法。
2.2数字音频处理技术
数字音频处理技术主要是指通过计算机对音频的采样、量化、编码将音频转化为数字方式存储在计算机中,数字音频编码压缩技术主要包括:基于音频数据的统计特性的编码技术;基于音频的声学参数的编码技术;基于人的听觉特性的编码技术。数字语音处理同样也是数字音频目前研究和应用的主要领域,主要包括语音识别、处理技术。
2.3数字图形技术
计算机图形就是指使用数学算法将二维或三维图形转化为计算机显示器的栅格形式的技术。主要研究内容就是研究如何在计算机中表示图形、以及利用计算机进行图形的计算、处理和显示的相关原理与算法。目前应用领域非常广泛,如曲线曲面造型、、实体造型、图形硬件、光栅图形生成算法、图形标准、图形交互技术真实感图形计算与显示算法,以及计算机动画、虚拟现实、科学计算、可视化自然景物仿真等。
2.4数字视频处理技术
数字视频是以数字形式记录的视频,和模拟视频相对的。数字视频有不同的产生方式,存储方式和播出方式。比如通过数字摄像机直接产生数字视频信号,存储在数字带,P2卡,蓝光盘或者磁盘上,从而得到不同格式的数字视频。然后通过PC,特定的播放器等播放出来。它视频压缩压缩技术分为有损、无损两种。可以用多种不同的方法和策略压缩数字视频文件,使之达到便于管理的大小。下面是几种最常用的方法:心理声学音频压缩、心理视觉视频压缩等方法。
2.5数字媒体存储技术
数字媒体存储对计算机性能较高,经过处理后图形、图像、语音、视频等通过数据量较大,同时具备实时性和并发性,所以在考虑数据存储技术不仅仅要考虑存储介质,还需考虑存储算法。正是数字媒体对数据的传输、读取有高标准和高要求,这也使得计算机媒介相关控制接口、技术等方面得到了快速的发展,各种快捷的接口、高速大容量的存储设备不断出现并得到了大量的使用,这也恰恰促进了数字媒体艺术的发展。
3、数字媒体艺术未来发展趋势
目前3亿多中国网民常常观看在线视频的现状,预示着在线视频即将成为产生数字媒体广告预算的主力引擎之一。在我国社交网站(SNS)注册用户已经超过1.5亿人次,大约1/3的网民都在使用SNS;各大主流互联网媒体纷纷向社交化转型,众多SNS新平台和产品竞相登场。社交媒体和视频类平台成为数字媒体艺术未来发展的新方向。将数字媒体的产品服务和创新技术融入品牌的市场推广体系,最大化数字媒体的营销效果;现有广告主、商、媒体主以及其他各方角色如何在新媒体市场中迅速找准定位,利用现有业务的优势拓展新市场,成为当前数字媒体行业持续发展亟需回答的问题。
参考文献:
篇10
1 引言
在现代教学尤其是高等教育过程中?多媒体教学因其交互性强、高效灵活而逐渐成为一种普及的教学方式。
为方便多媒体教学的开展,笔者选用AIT2139视频转换芯片设计了一个VGA—TV视频转换器。该转换器可将计算机的VGA信号转换为广播质量的NTSC制或PAL制视频信号输出到大屏幕电视机上,从而实现画面的冻结、缩放和平移等辅助功能。同时,其视频信号也可通过转换器提供的接口输出到计算机显示器上。
2 AIT2139芯片简介
AIT2139是一种单片、晶控、全数字视频信号处理器,可以支持多种输入格式(如640×480、85 Hz,800×600、85 Hz,1024×768、60 Hz等).AIT2139具有3通道、8-Bit ADC输入和16.7M 色彩转换功能;其内部有专门的存储压缩电路,外部有 EDO ?256k×16Bit? 存储器接口和 SDRAM ?1M ×16Bit? 存储器接口;AIT2139 控制方式简单,可采用HOST接口或I2 C总线进行控制。该芯片可自动检测输入模式和当前的TV模式,输出格式则可从合成、S-视频、 YCbCr 或 RGB/SCART中选择;所有的视频处理都可在数字域内完成,因而不需要转换电路,其数字编码器采用过采样技术,并以AITech 算法进行滤波,因而能输出高质量的NTSC和PAL制式信号。AIT2139芯片的内部功能框图如图1所示。
3 系统工作原理
该VGA-TV视频转换器主要由视频转换、视频转换控制和遥控三部分组成。其系统结构如图2所示。
VGA-TV视频转换器的组成核心是视频信号转换和视频转换控制部分,因此?设计的核心是对视频信号的处理和对视频转换芯片的控制。笔者采用AIT2139视频信号处理器,并配以当前成熟的外围电路设计了一种视频信号转换电路来完成视频前端的处理和信号转换;同时以八位单片机EM78P156EP 为核心,再配以键盘检测、I2C通信、遥控接收等电路组成了转换控制部分。该系统是典型的模拟数字混合系统,电源质量对视频信号的输出影响较大,为此,设计时采用单独的电源板卡并以背板的形式嵌入到系统中,从而取得了较好的效果。
4 系统设计
4.1 视频转换部分设计
作为系统核心的视频转换部分的主要功能是把计算机输出的RGB信号转换为电视的标准输入信号。视频前端的RGB放大信号采用门电路处理后,送到AIT2139进行转换,并输出两种格式的电视信号:一个是经过转换、选频和滤波得到的全电视信号,另一个是亮度和色度分离的电视信号,即S端子信号。因此,计算机输出的RGB信号经过耦合、缓冲、放大可直接接计算机显示器,从而使操作者能够方便的对画面进行监控。而对全电视信号输出则加入了完整的选频和滤波电路,可以增加电视信号的稳定性。图3是视频转换部分电路的方框图。
(1)视频前端处理
输入端通过AIT2139的三个8-bit A/D 转换器来对R、G、B信号的每一个通道按48MHz的采样率进行A/D 转换。其水平同步(HSYNC) 和垂直同步( VSYNC) 由施密特触发器门缓冲。AIT2139的AD转换相当灵活,内部的AD转换参考电压可自己设定。本设计中的RGB信号的电平范围是0~0.85V,给定的外部参考电压为Vk,需要注意的是,Vk必须不低于RGB信号电平的最大值。
数字视频处理可以利用YUV 色彩分量来进行,因此,可利用AIT2139芯片中RGB-YUV矩阵将输入的RGB信号转换为4:2:2 格式的YUV分量信号,每分量输出8位,总的输出信号在数据总线上以24位工作。实际设计发现:YUV输出闪烁较大,为此,笔者利用了芯片内部AITech算法构造的有限脉冲响应数字滤波器,从而有效地降低了输出闪烁。
(2)工作模式设定
AIT2139有两种工作模式,主模式和从模式。本设计选择主模式。AIT2139可产生所有的时钟和同步信号,并可以给外部的存储设备提供水平同步、垂直同步以及内部像素数据时钟。外部的多路同步输入、FIFO和存储器将严格遵循AIT2139提供的这些时钟和同步信息。在设计中发现,VGA的数据读入时间可以不与处理器的写入时钟同步。
(3)数字视频编码
AIT2139的核心是其处理器部分,主要用于从外部存储设备读入4:2:2格式的YUV数字视频数据,并进行编码处理。因为输入信号分为亮度和色度分量,色度信号将通过复合数字副载波调制。亮度分量和色度分量信号分别插值为象素速率的两倍,并通过两个10-bit的D/A转换器转换为模拟 S-视频信号,模拟合成视频信号在通过第三个通道的10-bit转换器输出后,可调整AIT2139处理器的格式控制脚以选择不同的时钟参数,从而将视频转换器的输出设置为NTSC、PAL等电视标准信号。
4.2 视频转换控制部分的设计
该VGA-TV转换器主控板是对视频转换部分进行控制的主要部分。该板不但可为视频转换提供电源,同时也可发送操作控制信号。主控板的核心是八位单片机EM78P156EP,同时配以键盘检测、I2C通信、遥控接收等电路组成转换控制部分。主控板的原理框图如图4所示。其控制解码子程序流程如图5所示。
- 上一篇:长期投资与短期投资区别
- 下一篇:高三数学概率公式总结