收藏 分享(赏)

RGB_YUV_Ycbcr.doc

上传人:hwpkd79526 文档编号:7463906 上传时间:2019-05-19 格式:DOC 页数:25 大小:132.50KB
下载 相关 举报
RGB_YUV_Ycbcr.doc_第1页
第1页 / 共25页
RGB_YUV_Ycbcr.doc_第2页
第2页 / 共25页
RGB_YUV_Ycbcr.doc_第3页
第3页 / 共25页
RGB_YUV_Ycbcr.doc_第4页
第4页 / 共25页
RGB_YUV_Ycbcr.doc_第5页
第5页 / 共25页
点击查看更多>>
资源描述

1、颜色空间是一个三维坐标系统,每一种颜色由一个点表示。在 RGB 颜色空间中,红,绿,蓝是基本元素。RGB 格式是显示器通常使用的格式。在 YUV 空间中,每一个颜色有一个亮度信号 Y,和两个色度信号 U 和 V。亮度信号是强度的感觉,它和色度信号断开,这样的话强度就可以在不影响颜色的情况下改变。YUV 格式通常用于 PAL 制,即欧洲的电视传输标准,而且缺省情况下是图像和视频压缩的标准。YUV 使用 RGB 的信息,但它从全彩色图像中产生一个黑白图像,然后提取出三个主要的颜色变成两个额外的信号来描述颜色。把这三个信号组合回来就可以产生一个全彩色图像。YUV 使用红,绿,蓝的点阵组合来减少信号中

2、的信息量。Y 通道描述 Luma 信号,它与亮度信号有一点点不同,值的范围介于亮和暗之间。 Luma 是黑白电视可以看到的信号。U (Cb) 和 V (Cr) 通道从红 (U) 和蓝 (V) 中提取亮度值来减少颜色信息量。这些值可以从新组合来决定红,绿和蓝的混合信号。YUV 和 RGB 的转换:Y = 0.299 R + 0.587 G + 0.114 BU = -0.1687 R - 0.3313 G + 0.5 B + 128V = 0.5 R - 0.4187 G - 0.0813 B + 128R = Y + 1.402 (V-128) G= Y - 0.34414 (U-128) -

3、 0.71414 (V-128) B= Y + 1.772 (U-128)以前,一直没明白 yuv 和 YcbCr 之间的差异,想必有些朋友也会有同样的疑惑。所以,我看完之后就记载下来了。 一、和 rgb 之间换算公式的差异yuvrgbY= 0.299*R + 0.587*G + 0.114*BU= -0.147*R - 0.289*G + 0.436*B = 0.492*(B- Y)V= 0.615*R - 0.515*G - 0.100*B = 0.877*(R- Y)R = Y + 1.140*VG = Y - 0.394*U - 0.581*VB = Y + 2.032*UyCbCrr

4、gbY = 0.257*R + 0.504*G + 0.098*B + 16Cb = -0.148*R - 0.291*G + 0.439*B + 128Cr = 0.439*R - 0.368*G - 0.071*B + 128R = 1.164*(Y-16) + 1.596*(Cr-128)G = 1.164*(Y-16) - 0.813*(Cr-128) - 0.392*(Cb-128)B = 1.164*(Y-16) + 2.017*(Cb-128)Note: 上面各个符号都带了一撇,表示该符号在原值基础上进行了 gamma correction二、来源上的差异yuv 色彩模型来源于

5、rgb 模型,该模型的特点是将亮度和色度分离开,从而适合于图像处理领域。应用:basic color model used in analogue color TV broadcasting.YCbCr 模型来源于 yuv 模型。YCbCr is a scaled and offset version of the YUV color space.应用:数字视频,ITU-R BT.601 recommendationps:通过上面的比较可以确定,我们在 h.264,mpeg 等编码标准中用的 yuv 其实是 YcbCr,大家不要被名称搞混淆了。人类视觉系统(HVS)相比亮度来说对于颜色不是那么

6、敏感的。在 RGB 颜色空间中,三种颜色被平等地看待,并用相同的分辨率存放起来。但是通过把亮度与颜色信息分离,并对亮度值取更高的分辨率可以更有效地表示一个颜色图像。YCbCr 颜色空间和它的变换(通常写为 YUV)是一种流行而高效的表示一个颜色图像的方法。Y 是亮度值,由 R,G,B 的加权平均可以得到: Y=krR + kgG + kbB这里 k 是加权因子。颜色信号可以由不同的颜色差别来表示:Cb = B-YCr = R-YCg = G-Y对于一个颜色图像的完整的描述由给定 Y 和三个色差:Cb,Cr,Cg 来表示。目前为止,我们的表示方法好像并不那么好,因为相比 RGB 表示来说,我们这

7、次用了四个参数。然后 Cb+Cr+Cg 是一个常数,那么我们只需要两个色度参数就可以了,第三个可以通过其他两个计算出来。在 YCbCr 空间中,只有 Y 和 Cb,Cr 值被传输和存储,而且Cb 和 Cr 的分辨率可以比 Y 低,因为人类视觉系统对于亮度更加敏感。这就减少了表示图像的数据量。通常的观察情况下,RGB 和YCbCr 表示的图像看上去没有什么不同。对于色度采用比亮度低的分辨率进行采样是一种简单而有效的压缩办法。一个 RGB 图像可以在捕捉之后转换为 YCbCr 格式用来减少存储和传输负担。在显示图象之前,再转回为 RGB.注意没有必要去指明分别的加权值 kg(因为 kb+kr+kg

8、=1),而且 G 可以从 YCbCr 中解压出来,这说明不需要存储和传输 Cg 参数。Y = kr R + (1-kb-kr)G + kb BCb = 0.5/(1-kb) * (B-Y)Cr = 0.5/(1-kr) * (R-Y)R = Y + (1-kr)/0.5 * CrG = Y - 2kb(1-kb)/(1-kb-kr) * Cb - 2kr(1-kr)/(1-kb-kr) * CrB = Y + (1-kb)/0.5 * CbITU-R 的 BT.601 决议定义了 kb=0.114,kr=0.299,那么代换参数就有了如下等式:Y = 0.299R + 0.587G + 0.1

9、14BCb = 0.564(B - Y )Cr = 0.713(R - Y )R = Y + 1.402CrG = Y - 0.344Cb - 0.714CrB = Y + 1.772Cb2.4.3 YCbCr 采样格式4:4:4 采样就是说三种元素 Y,Cb,Cr 有同样的分辨率,这样的话 ,在每一个像素点上都对这三种元素进行采样.数字 4 是指在水平方向上对于各种元素的采样率,比如说,每四个亮度采样点就有四个 Cb 的 Cr 采样值.4:4:4 采样完整地保留了所有的信息值.4:2:2 采样中(有时记为 YUY2),色度元素在纵向与亮度值有同样的分辨率,而在横向则是亮度分辨率的一半(4:2

10、:2 表示每四个亮度值就有两个 Cb和 Cr 采样.)4:2:2 视频用来构造高品质的视频彩色信号.在流行的 4:2:0 采样格式中(常记为 YV12)Cb 和 Cr 在水平和垂直方向上有 Y 分辨率的一半.4:2:0 有些不同,因为它并不是指在实际采样中使用 4:2:0,而是在编码史中定义这种编码方法是用来区别于 4:4:4 和 4:2:2 方法的).4:2:0采样被广泛地应用于消费应用中,比如视频会议,数字电视和 DVD 存储中。因为每个颜色差别元素中包含了四分之一的 Y 采样元素量,那么 4:2:0YCbCr 视频需要刚好 4:4:4或 RGB 视频中采样量的一半。4:2:0 采样有时被

11、描述是一个“每像素 12 位“ 的方法。这么说的原因可以从对四个像素的采样中看出.使用 4:4:4 采样,一共要进行 12 次采样,对每一个 Y,Cb 和 Cr,就需要 12*8=96 位,平均下来要 96/4=24 位。使用 4:2:0 就需要 6*8=48 位,平均每个像素 48/4=12 位。在一个 4:2:0 隔行扫描的视频序列中,对应于一个完整的视频帧的 Y,Cb,Cr 采样分配到两个场中。可以得到,隔行扫描的总采样数跟渐进式扫描中使用的采样数目是相同的。2.5 视频格式这本书中描述的视频压缩标准可以压缩很多种视频帧格式。实际中,捕捉或转化一个中间格式或一系列中间格式是很平常的事情。

12、CIF 就是一种常见的流行的格式,并由它衍生出了 4CIF 和 Sub-QCif。帧分辨率的选择取决于应用程序,可使用的存储量以及传输带宽。比如说 4CIF 对于标准定义的电视和 DVD 视频来说是合适的,CIF 和 QCIF 在视频会议中是常被使用的格式。QCIF 和 SQCIF 对于移动设备的多媒体程序来说是合适的,在这样的情况下,显示分辨率和码率都是有限的。以下是各种格式的具体使用位数的需求(使用 4:2:0采样,对于每个元素用 8 个位大小表示):格式: Sub-QCIF 亮度分辨率: 128*96 每帧使用的位: 147456格式: QCIF 亮度分辨率: 176*144 每帧使用的

13、位: 304128格式: CIF 亮度分辨率: 352*288 每帧使用的位: 1216512格式: 4CIF 亮度分辨率: 704*576 每帧使用的位: 4866048一种在电视信号中被应用的很广的数字视频信号编码格式就是 ITU-R 的 BT.601-5 提案。亮度元素被在 13.5MHz 下采样,而亮度值则在 6.75MHz 下采样,这样就形成了一个 4:2;2 的 Y:Cb:Cr 采样结果。采样数字信号的参数取决于视频码率(对于 NTSC 来说是 30Hz,对于PAL/SECAM 来说是 25Hz)。NTSC 的 30Hz 是对低空间分辨率的补偿,这样总的码率就是216Mbps.实际

14、显示的激活部分的区域要比总量小,因为它去掉了在一帧边缘处的水平和垂直空白间隔。每一个采样都有 0-255 的采样范围。 0 和 255 两个等级被留作同步,而且激活的亮度信号被限制到 26(黑色)到 235(白色)之间.YUV视频编解码器功能 视频编码器要求 YUV4:2:0 格式的视频输入,因此可能根据应用需要进行视频输入的预处理,即对 YUV4:2:2 隔行扫描 (例如从摄像机)到 YUV 4:2:0 非隔行扫描转换,仅抽取但不过滤 UV 分。对视频解码器而言,还需要进行后处理,以将解码的 YUV 4:2:0 数据转换为RGB 进行显示,包括:YUV 4:2:0 到 RGB 转换;16 位

15、或 12 位 RGB 显示格式;0 到 90 度旋转,实现横向或纵向显示。此外,视频编解码器通常还要求具有以下功能和特性: 支持 MPEG-4 简单类 0、1 与 2 级; 兼容 H.263 与 MPEG-4 编解码标准; MPEG-4 视频解码器支持的可选项有:AC/DC 预测、可逆可变长度编码(RVLC)、再同步标志(RM)、数据分割(DP)、错误隐藏专利技术、支持每个宏块 4 个运动矢量(4MV) 、自由运动补偿、解码 VOS 层; MPEG-4 视频编码器选项有:RVLC 、RM、DP 、支持每个宏块 4 个运动矢量(4MV) 、报头扩展码、支持编码期间码率改变、支持编码期间编码帧率改

16、变、插入或不插入可视对象序列起始码; 支持编码期间序列中插入 I 帧; 支持编码器自适应帧内刷新(AIR); 支持多编解码器,可用相同代码运行多个编解码器实例。 RGB红绿蓝(RGB)是计算机显示的基色, RGB565 支持的色深可编程至高达每像素 16 位,即 RGB565(红色 5 位,绿色 6 位,蓝色 5 位)。YCbCr在 DVD、摄像机、数字电视等消费类视频产品中,常用的色彩编码方案是 YCbCr,其中Y 是指亮度分量,Cb 指蓝色色度分量,而 Cr 指红色色度分量。人的肉眼对视频的 Y 分量更敏感,因此在通过对色度分量进行子采样来减少色度分量后,肉眼将察觉不到的图像质量的变化。主

17、要的子采样格式有 YCbCr 4:2:0、YCbCr 4:2:2 和 YCbCr 4:4:4。 4:2:0 表示每 4 个像素有 4 个亮度分量,2 个色度分量 (YYYYCbCr),仅采样奇数扫描线,是便携式视频设备(MPEG-4)以及电视会议(H.263)最常用格式;4:2:2 表示每 4 个像素有4 个亮度分量,4 个色度分量(YYYYCbCrCbCr),是 DVD、数字电视、HDTV 以及其它消费类视频设备的最常用格式;4:4:4 表示全像素点阵(YYYYCbCrCbCrCbCrCbCr),用于高质量视频应用、演播室以及专业视频产品。 小知识:RGB 与 YUV计算机彩色显示器显示色彩

18、的原理与彩色电视机一样,都是采用 R(Red) 、G(Green) 、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。这种色彩的表示方法称为 RGB 色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法) 。根据三基色原理,任意一种色光 F 都可以用不同分量的 R、G、B 三色相加混合而成。F = r R + g G + b B 其中,r、g、b 分别为三基色参与混合的系数。当三基色分量都为 0(最弱)时混合为黑色光;而当三基色分量都为 k(最强)时混合为白色光。调整 r、g、b 三个系数的值,可以混合出介于黑色光

19、和白色光之间的各种各样的色光。那么 YUV 又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色 CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到 RGB,再经过矩阵变换电路得到亮度信号 Y 和两个色差信号 RY(即 U) 、BY(即 V) ,最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的 YUV 色彩空间表示。采用 YUV 色彩空间的重要性是它的亮度信号 Y 和色度信号 U、V 是分离的。如果只有 Y信号分量而没有 U、V 分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用 YUV空间正是为了用亮度信号 Y

20、 解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。YUV 与 RGB 相互转换的公式如下(RGB 取值范围均为 0-255):Y = 0.299R + 0.587G + 0.114BU = -0.147R - 0.289G + 0.436BV = 0.615R - 0.515G - 0.100BR = Y + 1.14VG = Y - 0.39U - 0.58VB = Y + 2.03U在 DirectShow 中,常见的 RGB 格式有RGB1、RGB4、RGB8 、RGB565、RGB555、RGB24、RGB32、ARGB32 等;常见的 YUV格式有 YUY2、

21、YUYV、YVYU、UYVY、AYUV 、Y41P、Y411、Y211、IF09、IYUV、YV12 、YVU9、YUV411、 YUV420 等。作为视频媒体类型的辅助说明类型(Subtype) ,它们对应的 GUID 见表 2.3。表 2.3 常见的 RGB 和 YUV 格式GUID 格式描述MEDIASUBTYPE_RGB1 2 色,每个像素用 1 位表示,需要调色板MEDIASUBTYPE_RGB4 16 色,每个像素用 4 位表示,需要调色板MEDIASUBTYPE_RGB8 256 色,每个像素用 8 位表示,需要调色板MEDIASUBTYPE_RGB565 每个像素用 16 位表

22、示, RGB 分量分别使用 5 位、6 位、5位MEDIASUBTYPE_RGB555 每个像素用 16 位表示,RGB 分量都使用 5 位(剩下的 1位不用)MEDIASUBTYPE_RGB24 每个像素用 24 位表示,RGB 分量各使用 8 位MEDIASUBTYPE_RGB32 每个像素用 32 位表示,RGB 分量各使用 8 位(剩下的 8 位不用)MEDIASUBTYPE_ARGB32 每个像素用 32 位表示, RGB 分量各使用 8 位(剩下的 8位用于表示 Alpha 通道值)MEDIASUBTYPE_YUY2 YUY2 格式,以 4:2:2 方式打包MEDIASUBTYPE

23、_YUYV YUYV 格式(实际格式与 YUY2 相同)MEDIASUBTYPE_YVYU YVYU 格式,以 4:2:2 方式打包MEDIASUBTYPE_UYVY UYVY 格式,以 4:2:2 方式打包MEDIASUBTYPE_AYUV 带 Alpha 通道的 4:4:4 YUV 格式MEDIASUBTYPE_Y41P Y41P 格式,以 4:1:1 方式打包MEDIASUBTYPE_Y411 Y411 格式(实际格式与 Y41P 相同)MEDIASUBTYPE_Y211 Y211 格式MEDIASUBTYPE_IF09 IF09 格式MEDIASUBTYPE_IYUV IYUV 格式M

24、EDIASUBTYPE_YV12 YV12 格式MEDIASUBTYPE_YVU9 YVU9 格式下面分别介绍各种 RGB 格式。 RGB1、RGB4 、RGB8 都是调色板类型的 RGB 格式,在描述这些媒体类型的格式细节时,通常会在 BITMAPINFOHEADER 数据结构后面跟着一个调色板(定义一系列颜色) 。它们的图像数据并不是真正的颜色值,而是当前像素颜色值在调色板中的索引。以RGB1(2 色位图)为例,比如它的调色板中定义的两种颜色值依次为 0x000000(黑色)和 0xFFFFFF(白色) ,那么图像数据 001101010111(每个像素用 1 位表示)表示对应各像素的颜色

25、为:黑黑白白黑白黑白黑白白白。 RGB565 使用 16 位表示一个像素,这 16 位中的 5 位用于 R,6 位用于 G,5 位用于 B。程序中通常使用一个字(WORD,一个字等于两个字节)来操作一个像素。当读出一个像素后,这个字的各个位意义如下:高字节 低字节R R R R R G G G G G G B B B B B可以组合使用屏蔽字和移位操作来得到 RGB 各分量的值:#define RGB565_MASK_RED 0xF800#define RGB565_MASK_GREEN 0x07E0#define RGB565_MASK_BLUE 0x001FR = (wPixel / 取值

26、范围 0-31G = (wPixel / 取值范围 0-63B = wPixel / 取值范围 0-31 RGB555 是另一种 16 位的 RGB 格式,RGB 分量都用 5 位表示(剩下的 1 位不用) 。使用一个字读出一个像素后,这个字的各个位意义如下:高字节 低字节X R R R R G G G G G B B B B B (X 表示不用,可以忽略)可以组合使用屏蔽字和移位操作来得到 RGB 各分量的值:#define RGB555_MASK_RED 0x7C00#define RGB555_MASK_GREEN 0x03E0#define RGB555_MASK_BLUE 0x001

27、FR = (wPixel / 取值范围 0-31G = (wPixel / 取值范围 0-31B = wPixel / 取值范围 0-31 RGB24 使用 24 位来表示一个像素,RGB 分量都用 8 位表示,取值范围为 0-255。注意在内存中 RGB 各分量的排列顺序为:BGR BGR BGR。通常可以使用 RGBTRIPLE 数据结构来操作一个像素,它的定义为:typedef struct tagRGBTRIPLE BYTE rgbtBlue; / 蓝色分量BYTE rgbtGreen; / 绿色分量BYTE rgbtRed; / 红色分量 RGBTRIPLE; RGB32 使用 32

28、 位来表示一个像素,RGB 分量各用去 8 位,剩下的 8 位用作 Alpha 通道或者不用。 (ARGB32 就是带 Alpha 通道的 RGB32。 )注意在内存中 RGB 各分量的排列顺序为:BGRA BGRA BGRA。通常可以使用 RGBQUAD 数据结构来操作一个像素,它的定义为:typedef struct tagRGBQUAD BYTE rgbBlue; / 蓝色分量BYTE rgbGreen; / 绿色分量BYTE rgbRed; / 红色分量BYTE rgbReserved; / 保留字节(用作 Alpha 通道或忽略) RGBQUAD;下面介绍各种 YUV 格式。YUV

29、格式通常有两大类:打包(packed)格式和平面(planar )格式。前者将 YUV 分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素(macro-pixel) ;而后者使用三个数组分开存放 YUV 三个分量,就像是一个三维平面一样。表 2.3 中的 YUY2 到 Y211 都是打包格式,而 IF09 到 YVU9 都是平面格式。 (注意:在介绍各种具体格式时,YUV 各分量都会带有下标,如 Y0、U0、V0 表示第一个像素的 YUV分量,Y1、U1、V1 表示第二个像素的 YUV 分量,以此类推。 ) YUY2(和 YUYV)格式为每个像素保留 Y 分量,而 UV 分量在水平方向

30、上每两个像素采样一次。一个宏像素为 4 个字节,实际表示 2 个像素。 (4:2:2 的意思为一个宏像素中有4 个 Y 分量、2 个 U 分量和 2 个 V 分量。 )图像数据中 YUV 分量排列顺序如下:Y0 U0 Y1 V0 Y2 U2 Y3 V2 YVYU 格式跟 YUY2 类似,只是图像数据中 YUV 分量的排列顺序有所不同:Y0 V0 Y1 U0 Y2 V2 Y3 U2 UYVY 格式跟 YUY2 类似,只是图像数据中 YUV 分量的排列顺序有所不同:U0 Y0 V0 Y1 U2 Y2 V2 Y3 AYUV 格式带有一个 Alpha 通道,并且为每个像素都提取 YUV 分量,图像数据

31、格式如下:A0 Y0 U0 V0 A1 Y1 U1 V1 Y41P(和 Y411)格式为每个像素保留 Y 分量,而 UV 分量在水平方向上每 4 个像素采样一次。一个宏像素为 12 个字节,实际表示 8 个像素。图像数据中 YUV 分量排列顺序如下:U0 Y0 V0 Y1 U4 Y2 V4 Y3 Y4 Y5 Y6 Y8 Y211 格式在水平方向上 Y 分量每 2 个像素采样一次,而 UV 分量每 4 个像素采样一次。一个宏像素为 4 个字节,实际表示 4 个像素。图像数据中 YUV 分量排列顺序如下:Y0 U0 Y2 V0 Y4 U4 Y6 V4 YVU9 格式为每个像素都提取 Y 分量,而在

32、 UV 分量的提取时,首先将图像分成若干个4 x 4 的宏块,然后每个宏块提取一个 U 分量和一个 V 分量。图像数据存储时,首先是整幅图像的 Y 分量数组,然后就跟着 U 分量数组,以及 V 分量数组。IF09 格式与 YVU9 类似。 IYUV 格式为每个像素都提取 Y 分量,而在 UV 分量的提取时,首先将图像分成若干个2 x 2 的宏块,然后每个宏块提取一个 U 分量和一个 V 分量。 YV12 格式与 IYUV 类似。 YUV411、YUV420 格式多见于 DV 数据中,前者用于 NTSC 制,后者用于 PAL 制。YUV411 为每个像素都提取 Y 分量,而 UV 分量在水平方向

33、上每 4 个像素采样一次。YUV420 并非 V 分量采样为 0,而是跟 YUV411 相比,在水平方向上提高一倍色差采样频率,在垂直方向上以 U/V 间隔的方式减小一半色差采样,如图 2.12 所示。http:/:8080/1308.jpgYUV 转换为 RGB 的公式第一个公式是 YUV 转换 RGB(范围 0-255)时用的,第二个公式是用在 YUV(601)也成为YCbCr 转换 RGB(范围 0-255)时用的。 1.Y = 0.299R + 0.587G + 0.114BU = -0.147R - 0.289G + 0.436BV = 0.615R - 0.515G - 0.100

34、BR = Y + 1.14VG = Y - 0.39U - 0.58VB = Y + 2.03U2.B= 1.164 * (Y - 16) + 2.018 * (U - 128)G= 1.164 * (Y - 16) - 0.38 * (U - 128) - 0.813 * (V - 128)R= 1.164 * (Y - 16) + 1.159 * (V - 128)程序读出来显现的不正确,源代码大概是这样的:Mywidth = 176;Myheight = 144;tmp = (uchar *)malloc(Mywidth * Myheight *3);buffer = (uchar *)

35、malloc(Mywidth * Myheight *4);device_fd = open(“/dev/video0“, O_RDONLY);static struct video_window vidwin;vidwin.width = Mywidth;vidwin.height = Myheight;ioctl(device_fd, VIDIOCSWIN, read(device_fd, tmp, Mywidth*Myheight*3);for(int i = 0; i setPixmap(pic);FillEllips 函数填充指定的椭圆。椭圆心为(sx, sy) ,X 轴半径为 rx

36、,Y 轴半径为 ry。 FillSector 函数填充由圆弧和两条半径形成的扇形。圆心为(x, y) ,半径为 r,起始弧度为 ang1,终止弧度为 ang2。 FillPolygon 函数填充多边形。 pts 表示多边形各个顶点,vertices 表示多边形顶点个数。FloodFill 从指定点(x, y)开始填注。 需要注意的是,所有填充函数使用当前画刷属性(颜色) ,并且受当前光栅操作的影响。下面的例子说明了如何使用 FillCircle 和 FillEllipse 函数填充圆或者椭圆。假定给定了两个点,pts0 和 pts1,其中 pts0 是圆心或者椭圆心,而 pts1 是圆或者椭圆

37、外切矩形的一个顶点。int rx = ABS (pts1.x - pts0.x);int ry = ABS (pts1.y - pts0.y);if (rx = ry)FillCircle (hdc, pts0.x, pts0.y, rx);elseFillEllipse (hdc, pts0.x, pts0.y, rx, ry);5 建立复杂区域除了利用填充生成器进行填充绘制以外,我们还可以使用填充生成器建立由封闭曲线包围的复杂区域。我们知道,MiniGUI 当中的区域是由互不相交的矩形组成的,并且满足 x-y-banned 的分布规则。利用上述的多边形或者封闭曲线生成器,可以将每条扫描线看

38、成是组成区域的高度为 1 的一个矩形,这样,我们可以利用这些生成器建立复杂区域。MiniGUI 利用现有的封闭曲线生成器,实现了如下的复杂区域生成函数:BOOL GUIAPI InitCircleRegion (PCLIPRGN dst, int x, int y, int r);BOOL GUIAPI InitEllipseRegion (PCLIPRGN dst, int x, int y, int rx, int ry);BOOL GUIAPI InitPolygonRegion (PCLIPRGN dst, const POINT* pts, int vertices);BOOL GU

39、IAPI InitSectorRegion (PCLIPRGN dst, const POINT* pts, int vertices);利用这些函数,我们可以将某个区域分别初始化为圆、椭圆、多边形和扇形区域。然后,可以利用这些区域进行点击测试(PtInRegion 和 RectInRegion) ,或者选择到 DC 当中作为剪切域,从而获得特殊显示效果。6 直接访问显示缓冲区在新的 GDI 接口中,我们添加了用来直接访问显示缓冲区的函数,原型如下:Uint8* GUIAPI LockDC (HDC hdc, const RECT* rw_rc, int* width, int* height

40、, int* pitch);void GUIAPI UnlockDC (HDC hdc);LockDC 函数锁定给定 HDC 的指定矩形区域(由矩形 rw_rc 指定,设备坐标) ,然后返回缓冲区头指针。当 width、height、pitch 三个指针不为空时,该函数将返回锁定之后的矩形有效宽度、有效高度和每扫描线所占的字节数。 UnlockDC 函数解开已锁定的 HDC。 锁定一个 HDC 意味着 MiniGUI 进入以互斥方式访问显示缓冲区的状态。如果被锁定的 HDC 是一个屏幕 DC(即非内存 DC) ,则该函数将在必要时隐藏鼠标光标,并锁定 HDC 对应的全局剪切域。在锁定一个 HD

41、C 之后,程序可通过该函数返回的指针对锁定区域进行访问。需要注意的是,不能长时间锁定一个 HDC,也不应该在锁定一个 HDC 时进行其他额外的系统调用。假定以锁定矩形左上角为原点建立坐标系,X 轴水平向右,Y 轴垂直向下,则可以通过如下的公式计算该坐标系中(x, y)点对应的缓冲区地址(假定该函数返回的指针值为 frame_buffer):Uint8* pixel_add = frame_buffer + y * (*pitch) + x * GetGDCapability (hdc, GDCAP_BPP);根据该 HDC 的颜色深度,就可以对该象素进行读写操作。作为示例,下面的程序段随机填充

42、锁定区域:int i, width, height, pitch;RECT rc = 0, 0, 200, 200;int bpp = GetGDCapability (hdc, GDCAP_BPP);Uint8* frame_buffer = LockDC (hdc, Uint8* row = frame_buffer;for (i = 0; i #include #include #include #include #include #include #include #include #include #include #include “v4l.h“ /* v4l_init() * f

43、unction: init the video device * references: * dev: device name. * input: channel number of video_channel structure. * width: width value of video_window structure * height: height value of video_window structure */ bool CV4L:init(int channel, int width, int height) int fd; struct video_capability v

44、id_caps; struct video_mbuf vid_mbuf; struct video_channel vid_chnl; / open the video device fd = open (szDevName, O_RDWR); if (fd = -1) perror (szDevName); return false; fdVideo = fd; / get video_capability structrue if (ioctl (fd, VIDIOCGCAP, return false; / get the buffer information in video_mbuf

45、 structure / if cant use mmap() if (ioctl (fd, VIDIOCGMBUF, m_MapSize = 0; / set video window information if (ioctl(fd, VIDIOCGWIN, vid_win.height= height; ioctl (fd, VIDIOCSWIN, else m_MapSize = vid_mbuf.size; m_BuffSize = m_MapSize; #ifdef DEBUG printf (“%s: mbuf.size=%dn“, _FILE_, vid_mbuf.size);

46、 #endif if (channel -1) vid_chnl.channel = channel; if (ioctl (fd, VIDIOCGCHAN, else vid_chnl.channel = channel; if (ioctl (fd, VIDIOCSCHAN, if (m_MapSize 0) m_Buff = (unsigned char *)mmap (0,m_MapSize, PROT_READ|PROT_WRITE,MAP_SHARED,fd,0); if (unsigned char *) -1 = (unsigned char *)m_Buff) perror

47、(“mmap()“); close (fd); return false; else m_BuffSize = width * height * 3; m_Buff = (unsigned char *)malloc (m_BuffSize); m_Width = width; m_Height = height; return true; unsigned char *CV4L:Read() struct video_mmap vid_mmap; if (m_MapSize = 0) printf (_FILE_“: reading image n“); if (read (fdVideo,

48、 (void *)m_Buff, m_BuffSize) = 0) if (m_MapSize = 0) free (m_Buff); else munmap (m_Buff, m_MapSize); close (fdVideo); CV4L:CV4L() / CV4L:CV4L(char *_szDevName) szDevName = (char *)malloc(strlen(_szDevName)+1); strcpy(szDevName, _szDevName); /init(0, int width, int height); / CV4L:CV4L() destroy(); video.cpp /* * $Id: helloworld.c,v 1.7 2003/06/13 07:15:49 weiym Exp $ * * Listing 2.1 * * helloworld.c: Sample program for MiniGUI Programming Guide * The first MiniGUI application. * * Copyright (C) 2003 Feynman Software. * * License: GPL *

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报