专栏首页along的开发之旅Android Bitmap转I420的坑,以及图文详解YUV420数据格式

Android Bitmap转I420的坑,以及图文详解YUV420数据格式

今天Android要把Bitmap里的数据转成I420,用的YUV库,但是总有色差。查了好久,最终发现

libyuv里的名字和我们外面常用的正好相反,比如`libyuv::ABGRToI420`,输入的数据格式要是ARGB_8888,这应该是位高低常用读法不同。

给个示例:

Java层代码:

int width = bitmap.getWidth();
int height = bitmap.getHeight();
int byteCount = bitmap.getByteCount();
ByteBuffer buf = ByteBuffer.allocate(byteCount);
bitmap.copyPixelsToBuffer(buf);
byte[] byteArray = buf.array();
byte[] yBuffer = new byte[width * height];
byte[] uBuffer = new byte[width * height / 4];
byte[] vBuffer = new byte[width * height / 4];
LibYUV.javaABGRToI420(byteArray, width * 4, width, height, yBuffer, width, uBuffer, (width + 1) / 2, vBuffer, (width + 1) / 2);
byte[] yuvBuffer = new byte[width * height * 3 / 2];
System.arraycopy(yBuffer, 0, yuvBuffer, 0, width * height);
System.arraycopy(uBuffer, 0, yuvBuffer, width * height, width * height / 4);
System.arraycopy(vBuffer, 0, yuvBuffer, width * height * 5 / 4, width * height / 4);

JavaWrap:

public class LibYUV {

    static {
        System.loadLibrary("yuvwrap");
        System.loadLibrary("yuv");
    }

    public static void javaABGRToI420(byte[] argbFrame, int argbStride, int width, int height,
                                      byte[] yBuffer, int yStride,
                                      byte[] uBuffer, int uStride,
                                      byte[] vBuffer, int vStride) {
        ABGRToI420(argbFrame, argbStride, width, height, yBuffer, yStride, uBuffer, uStride, vBuffer, vStride);
    }
}    

C++层调用libyuv

    JNIEXPORT
    JNICALL
    void Java_org_android_opensource_libraryyuv_LibYUV_ABGRToI420(
            JNIEnv *env, jclass *jcls,
            jbyteArray src_frame, jint src_stride_frame,
            jint width, jint height,
            jbyteArray yBuffer, jint y_stride,
            jbyteArray uBuffer, jint u_stride,
            jbyteArray vBuffer, jint v_stride) {

        uint8_t *srcFrame = (uint8_t *) env->GetByteArrayElements(src_frame, 0);

        uint8_t *dst_y = (uint8_t *) env->GetByteArrayElements(yBuffer, 0);
        uint8_t *dst_u = (uint8_t *) env->GetByteArrayElements(uBuffer, 0);
        uint8_t *dst_v = (uint8_t *) env->GetByteArrayElements(vBuffer, 0);

        // RGBA_8888实现的数值顺序是ABGR
        // https://github.com/R1NC/LibYUV-Android/blob/6f4862a78bbd70aeeb8a9b3a026fcdfbd8391314/app/src/main/cpp/YuvJni.cpp
        libyuv::ABGRToI420(srcFrame, src_stride_frame,
                       dst_y, y_stride,
                       dst_u, u_stride,
                       dst_v, v_stride, width, height);

        //remember release
        env->ReleaseByteArrayElements(src_frame, (jbyte *) srcFrame, 0);
        env->ReleaseByteArrayElements(yBuffer, (jbyte *) dst_y, 0);
        env->ReleaseByteArrayElements(uBuffer, (jbyte *) dst_u, 0);
        env->ReleaseByteArrayElements(vBuffer, (jbyte *) dst_v, 0);
    }

I420: YYYYYYYY UU VV =>YUV420P YV12: YYYYYYYY VV UU =>YUV420P NV12: YYYYYYYY UVUV =>YUV420SP NV21: YYYYYYYY VUVU =>YUV420SP

转自:https://www.cnblogs.com/azraelly/archive/2013/01/01/2841269.html

YUV格式有两大类:planar和packed。 对于planar的YUV格式,先连续存储所有像素点的Y,紧接着存储所有像素点的U,随后是所有像素点的V。 对于packed的YUV格式,每个像素点的Y,U,V是连续交*存储的。

YUV,分为三个分量,“Y”表示明亮度(Luminance或Luma),也就是灰度值;而“U”和“V” 表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。

    与我们熟知的RGB类似,YUV也是一种颜色编码方法,主要用于电视系统以及模拟视频领域,它将亮度信息(Y)与色彩信息(UV)分离,没有UV信息一样可以显示完整的图像,只不过是黑白的,这样的设计很好地解决了彩色电视机与黑白电视的兼容问题。并且,YUV不像RGB那样要求三个独立的视频信号同时传输,所以用YUV方式传送占用极少的频宽。

YUV码流的存储格式其实与其采样的方式密切相关,主流的采样方式有三种,YUV4:4:4,YUV4:2:2,YUV4:2:0,关于其详细原理,可以通过网上其它文章了解,这里我想强调的是如何根据其采样格式来从码流中还原每个像素点的YUV值,因为只有正确地还原了每个像素点的YUV值,才能通过YUV与RGB的转换公式提取出每个像素点的RGB值,然后显示出来。

    用三个图来直观地表示采集的方式吧,以黑点表示采样该像素点的Y分量,以空心圆圈表示采用该像素点的UV分量。

先记住下面这段话,以后提取每个像素的YUV分量会用到。

  1. YUV 4:4:4采样,每一个Y对应一组UV分量。
  2. YUV 4:2:2采样,每两个Y共用一组UV分量。 
  3. YUV 4:2:0采样,每四个Y共用一组UV分量。 

2.  存储方式

    下面我用图的形式给出常见的YUV码流的存储方式,并在存储方式后面附有取样每个像素点的YUV数据的方法,其中,Cb、Cr的含义等同于U、V。

(1) YUVY 格式 (属于YUV422)

YUYV为YUV422采样的存储格式中的一种,相邻的两个Y共用其相邻的两个Cb、Cr,分析,对于像素点Y'00、Y'01 而言,其Cb、Cr的值均为 Cb00、Cr00,其他的像素点的YUV取值依次类推。 (2) UYVY 格式 (属于YUV422)

UYVY格式也是YUV422采样的存储格式中的一种,只不过与YUYV不同的是UV的排列顺序不一样而已,还原其每个像素点的YUV值的方法与上面一样。

(3) YUV422P(属于YUV422)

 YUV422P也属于YUV422的一种,它是一种Plane模式,即平面模式,并不是将YUV数据交错存储,而是先存放所有的Y分量,然后存储所有的U(Cb)分量,最后存储所有的V(Cr)分量,如上图所示。其每一个像素点的YUV值提取方法也是遵循YUV422格式的最基本提取方法,即两个Y共用一个UV。比如,对于像素点Y'00、Y'01 而言,其Cb、Cr的值均为 Cb00、Cr00。

(4)YV12,YU12格式(属于YUV420)

YU12和YV12属于YUV420格式,也是一种Plane模式,将Y、U、V分量分别打包,依次存储。其每一个像素点的YUV数据提取遵循YUV420格式的提取方式,即4个Y分量共用一组UV。注意,上图中,Y'00、Y'01、Y'10、Y'11共用Cr00、Cb00,其他依次类推。

(5)NV12、NV21(属于YUV420)

NV12和NV21属于YUV420格式,是一种two-plane模式,即Y和UV分为两个Plane,但是UV(CbCr)为交错存储,而不是分为三个plane。其提取方式与上一种类似,即Y'00、Y'01、Y'10、Y'11共用Cr00、Cb00

YUV420 planar数据, 以720×488大小图象YUV420 planar为例,

其存储格式是: 共大小为(720×480×3>>1)字节,

分为三个部分:Y,U和V

Y分量:    (720×480)个字节  

U(Cb)分量:(720×480>>2)个字节

V(Cr)分量:(720×480>>2)个字节

三个部分内部均是行优先存储,三个部分之间是Y,U,V 顺序存储。

即YUV数据的0--720×480字节是Y分量值,         

720×480--720×480×5/4字节是U分量    

720×480×5/4 --720×480×3/2字节是V分量。

4 :2: 2 和4:2:0 转换:

最简单的方式:

YUV4:2:2 ---> YUV4:2:0  Y不变,将U和V信号值在行(垂直方向)在进行一次隔行抽样。 YUV4:2:0 ---> YUV4:2:2  Y不变,将U和V信号值的每一行分别拷贝一份形成连续两行数据。

在YUV420中,一个像素点对应一个Y,一个4X4的小方块对应一个U和V。对于所有YUV420图像,它们的Y值排列是完全相同的,因为只有Y的图像就是灰度图像。YUV420sp与YUV420p的数据格式它们的UV排列在原理上是完全不同的。420p它是先把U存放完后,再存放V,也就是说UV它们是连续的。而420sp它是UV、UV这样交替存放的。(见下图) 有了上面的理论,我就可以准确的计算出一个YUV420在内存中存放的大小。 width * hight =Y(总和) U = Y / 4   V = Y / 4

所以YUV420 数据在内存中的长度是 width * hight * 3 / 2,

假设一个分辨率为8X4的YUV图像,它们的格式如下图:

YUV420sp格式如下图                                                          

                        YUV420p数据格式如下图

旋转90度的算法:

public static void rotateYUV240SP(byte[] src,byte[] des,int width,int height)
  {
 
   int wh = width * height;
   //旋转Y
   int k = 0;
   for(int i=0;i<width;i++) {
    for(int j=0;j<height;j++)
    {
                des[k] = src[width*j + i];   
          k++;
    }
   }
 
   for(int i=0;i<width;i+=2) {
    for(int j=0;j<height/2;j++)
    { 
                des[k] = src[wh+ width*j + i]; 
                des[k+1]=src[wh + width*j + i+1];
          k+=2;
    }
   }
 
 
  }

YV12和I420的区别        一般来说,直接采集到的视频数据是RGB24的格式,RGB24一帧的大小size=width×heigth×3 Bit,RGB32的size=width×heigth×4,如果是I420(即YUV标准格式4:2:0)的数据量是 size=width×heigth×1.5 Bit。       在采集到RGB24数据后,需要对这个格式的数据进行第一次压缩。即将图像的颜色空间由RGB2YUV。因为,X264在进行编码的时候需要标准的YUV(4:2:0)。但是这里需要注意的是,虽然YV12也是(4:2:0),但是YV12和I420的却是不同的,在存储空间上面有些区别。如下: YV12 : 亮度(行×列) + U(行×列/4) + V(行×列/4)

I420 : 亮度(行×列) + V(行×列/4) + U(行×列/4)

可以看出,YV12和I420基本上是一样的,就是UV的顺序不同。

继续我们的话题,经过第一次数据压缩后RGB24->YUV(I420)。这样,数据量将减少一半,为什么呢?呵呵,这个就太基础了,我就不多写了。同样,如果是RGB24->YUV(YV12),也是减少一半。但是,虽然都是一半,如果是YV12的话效果就有很大损失。然后,经过X264编码后,数据量将大大减少。将编码后的数据打包,通过RTP实时传送。到达目的地后,将数据取出,进行解码。完成解码后,数据仍然是YUV格式的,所以,还需要一次转换,这样windows的驱动才可以处理,就是YUV2RGB24。

YUY2  是 4:2:2  [Y0 U0 Y1 V0]

yuv420p 和 YUV420的区别 在存储格式上有区别

yuv420p:yyyyyyyy uuuuuuuu vvvvv yuv420: yuv yuv yuv

     YUV420P,Y,U,V三个分量都是平面格式,分为I420和YV12。I420格式和YV12格式的不同处在U平面和V平面的位置不同。在I420格式中,U平面紧跟在Y平面之后,然后才是V平面(即:YUV);但YV12则是相反(即:YVU)。 YUV420SP, Y分量平面格式,UV打包格式, 即NV12。 NV12与NV21类似,U 和 V 交错排列,不同在于UV顺序。 I420: YYYYYYYY UU VV    =>YUV420P YV12: YYYYYYYY VV UU    =>YUV420P NV12: YYYYYYYY UVUV     =>YUV420SP NV21: YYYYYYYY VUVU     =>YUV420SP

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Android MediaCodec图片合成视频

    YUV是为了解决彩色电视与黑白电视的兼容性。黑白视频只有Y值,也就是灰度。而彩色电视则有YUV3个分量,如果只读取Y值,就只能显示黑白画面了。YUV最大的优点在...

    陨石坠灭
  • 安卓Camera2 YUV_420_888

    Image类在API 19中引入,但真正开始发挥作用还是在API 21引入CameraDevice和MediaCodec的增强后。API 21引入了Camera...

    ppchao
  • Android二维码扫描开发(二):YUV图像格式详解

    ? 前一篇提到了,相机返回的是YUV格式的图像数据,那么YUV到底是怎样一种格式呢?本篇将对YUV图像格式进行详细的解释。 上一篇中,我们了解了Android...

    非著名程序员
  • YUV像素数据处理

    YUV,是一种颜色编码方法。常使用在各个视频处理组件中。 YUV在对照片或视频编码时,考虑到人类的感知能力,允许降低色度的带宽。

    deep_sadness
  • Android CameraX NDK OpenCV(一)--实时灰度图预览

    上一篇《Android JetPack组件CameraX使用及修改显示图像》已经实现了CameraX的相机预览使用,所以要结合OpenCV(android nd...

    Vaccae
  • 音视频知识体系(基础篇3)----图像颜色空间

    我们从视频的信号表示方法开始讲起,逐步深入到视频压缩编码的原理。我们主要从下面几个要点来讲解或者加深记忆。

    jerrypxiao
  • TRTCSDK自定义采集YUV视频通话

    摄像头通话功能,是TRTCSDK对系统摄像头进行了封装,采集摄像头数据,编码传输通话。

    ppchao
  • TRTCSDK自定义采集YUV视频通话

    摄像头通话功能,是TRTCSDK对系统摄像头进行了封装,采集摄像头数据,编码传输通话。

    ppchao
  • TRTCSDK自定义采集YUV视频通话

    摄像头通话功能,是TRTCSDK对系统摄像头进行了封装,采集摄像头数据,编码传输通话。

    腾讯云-chaoli

扫码关注云+社区

领取腾讯云代金券