展开

关键词

OpenGLES通过SurfaceTexture画面

SurfaceTexture中,这样就可以在OpenGL中拿到数据并显示了。 主要步骤 1.OpenGL ES生成纹理2.OpenGL ES创建SurfaceTexture并绑定3.OpenGL ES 比如美颜相机那些,处理数据展示出来,为了提高的效率,所以这里使用了 创建相机扩展纹理: ** * 创建扩展纹理 * private void createCameraRenderTexture() { int; GLES20.glGenTextures(1 ); 使用程序 GLES20.glUseProgram(program); 绑定fbo GLES20.glBindFramebuffer(GLES20.GL_FRAMEBUFFER, fboId); 扩展纹理赋值 afPosition); GLES20.glBindFramebuffer(GLES20.GL_FRAMEBUFFER, 0); 渲染显示 cameraRender.onDraw(fboTextureId); }方向调整默认的不同的角度出来效果是不同的

2.5K20

问题记录

背景 昨天,遇到三个神奇的问题,这里记录一下 SDWebImage图片加载之后黑色的问题,显示正常 WKWebview 加载 vnd.ms-excel 文件,加载xlsx 文件,不了 用户反馈拍照唤起相机黑屏 图片黑色的问题 测试反馈的是,拍了一张图片,上传之后,可以加载出来,iOS显示是黑色,其他图片正常; 最开始笔者以为是 SDWebImage加载这张图片失败了,断点调试后,发现图片加载成功并没有失败 WKWebview加载xlsx 文件,不了的问题 笔者这边的情况是,打开了一个网页,网页中的有个按钮,点击之后的链接,正常在电脑浏器上打开是下载,在 iOS 的 WKWebview中打开是。 于是怀疑是用户出问题了,询问用户使用企业微信唤起扫一扫界面是否正常,用户反馈正常。 陷入了僵局,最后用户反馈打开系统相机也是黑屏,但是把缩放调到2倍就正常了。 于是怀疑是坏了一颗, 默认是使用正常的,当拍远景或者缩放调到2倍时使用了广角的镜,用户的应该是正常坏掉了,而另一颗远景的是好的。 但是为什么企业微信的是好的?

11920
  • 广告
    关闭

    云产品限时秒杀

    云服务器1核2G首年50元,还有多款热门云产品满足您的上云需求

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    你的手机可能正在被监控

    昨天晚上有用户Post了这么一张图, 他在使用 Telegram 聊天app的过程中没有打开拍照,但是却自己弹了出来。? 其实只是获取了参数,并没有调用 startPreview和拍照相关API。?Telegram官方稍候给出的解释是app在没有使用的情况下只获取了可用的设备列表,没有请求设备的行为。? 做过开发的知道要打开进行的话需要先请求设备列表,然后请求前置后置,之后才能开始。 所以这个问题是NEX在 Telegram 请求参数时就弹出了相机,即使release了也没有缩回去。有没有办法在用户不知道的情况下打开呢? 之前推过一篇文章分析了如何在用户不知情的情况下打开,但是这个技术也有个前提是用户得同意app请求权限。到目前为止还没有比较简单的技术手段可以绕过Android的权限系统打开

    72920

    H5录制视频、音频(WebRTC)

    使用Navigator.getUserMedia可以做到在主流浏器中获取用户数据,麦克风数据,我研究了一下,发现在ios、微信浏器中都不行。 而在6.0.1自带浏器中可以,iOS Safari不支持,mac Safari不支持,兼容性还是太差,所以还是弃用了。但是我研究的结果还是保存一下,万一以后微信浏器支持了呢? 然而在chrome中有特殊的使用后置的方法,参考:http:blog.csdn.netjourney191articledetails40744015,这个参考里的方法我测过,6.0.1的确可以用后置 { audio: true, video: { facingMode: user } }如果有前置的话使用前置(我身边的机器都有前置,所以没测试没有的情况) { audio: true, video: { facingMode: { exact: environment } } }如果有后置的话使用后置

    2.9K40

    Tensorflow Lite人体姿势跟踪功能上线:基于PosNet的实时人体姿态估计

    这种姿势估计模型不会鉴别图中的人是谁,只会找到关键身体部位的位置。TensorFlow Lite 分享了一个示例应用程序,该应用程序利用设备的来实时地检测和显示一个人的关键部位。? PoseNet 示例应用程序与现有的以 JAVA 写的示例相反,PoseNet 示例应用程序是在 Kotlin 上开发的。 PoseNet 应用程序示例这里展示的是一款设备内置(on-device)的 PoseNet 示例应用程序,它捕捉的帧,并实时覆盖图上的关键点。 该应用程序对每张传入的执行以下操作:从中获取图数据并将它从「YUV_420_888」转换成「ARGB_888」格式。创建一个位图对象来保存来自 RGB 格式帧数据的素。 为了将姿势渲染与帧同步。我们用单个「SurfaceView」来显示输出而不是对姿势和分别建立「View」实例。

    79630

    JavaCV的实战之二:本地窗口

    本篇概前文《JavaCV的实战之一:基础》已经为整个系列做好了铺垫,接下来的文章会专注于如何使用来自的数据,本篇先从最简单的开始:本地窗口编码前文创建的simple-grab-push 然后是初始化操作,可见是previewCanvas的实例化和参数设置:@Override protected void initOutput() { previewCanvas = new CanvasFrame( = previewCanvas) { previewCanvas.dispose(); } }至此,用本地窗口的功能已开发完成,再写上main方法,注意参数1000表示持续时间是1000秒 (可见今天深圳的天气不错,应该出去走走,而不是在家写博客…):至此,咱们已完成了本地窗口功能,得益于JavaCV的强大,整个过程是如此的轻松愉快,接下来请继续关注欣宸原创,《JavaCV的实战 》系列还会呈现更多丰富的应用;源码下载《JavaCV的实战》的完整源码可在GitHub下载到,地址和链接信息如下表所示(https:github.comzq2599blog_demos):名称链接备注项目主页

    1820

    移动AR市场风太猛,谷歌ARCore能够狙击苹果ARkit吗?

    党的福音!一大波AR营销新玩法、AR游戏即将袭来。 和ARkit同台竞争的ARCore根据谷歌的描述来看,ARCore有三个基本特点:运动追踪:可以基于移动设备的以及内置的传感器,来识别出设备在移动时的位置和方向,从而让虚拟对象保持相对准确的位置。 环境理解:通过手机来检测水平表面。光线测:ARCore能够根据环境中的光线变化,使得虚拟对象的周边阴影发生变化,从而让其看起来更加逼真。 另外,谷歌还在浏器上下了功夫,他们开发了可以直接使用ARCore的浏器 ,用户能够无需下载应用,直接通过浏各种AR效果。 这次推出的ARCore,在版之后,谷歌也已开始与三星,华为,LG和华硕等厂商进行了相关合作,他们的目标是庞大的手机市场。

    34400

    飞桨手势识别带你玩转神庙逃亡

    拍照方法的实现Android Camera是系统提供的实现自定义相机功能的官方支持库,采集模块封装了一系列相关调用方法,实现了连续抓拍存储及浮窗实时的效果。 此外,对于没有自带设备(如嵌入式开发板),我们使用外接USB,并完成 USB的驱动模块的编写,实现了设备对外接的调用及相关配置功能。2. 浮窗实时为了便于调试,通过Service组件定制浮窗的方式来在实时显示当前机的画面、手势识别结果、处理响应延时等信息,并设立了开关来一键控制程序,如图所示.? 之后,将采集模块中捕捉的图片按照训练模型前完全一致的方法进行处理,并加载保存好的测模型,通过调用刚才编译的libpaddle-mobile.so库提供的API,就能实现Android端的推理。 02平板电脑端神庙逃亡游戏03嵌入式板+电视投屏端神庙逃亡游戏总结我们的手势识别交互系统是面向人机交互的嵌入式应用程序,用户仅需使用带有设备便可以利用手势实现对界面(游戏)的控制。

    21430

    Android图片识别应用详解

    最近由于参加一个小小的创意比赛,用做了一个小小的图片识别应用,主要是通过拍照识别图片中的菜品,还有对象位置查找的东西。 之前没有做过,都是拼拼凑凑多篇博客完成的,我也把这个项目的一些过程分享一下。先把功能贴一下,其实就是点击拍照,将照片保存在本地,然后识别出图中的菜品,然后用红色方框圈出来,并显示菜品种类。 1、界面 我采用了一个SurfaceView用来显示画面,重写了一个SurfaceView来进行红色方框还有菜品名字的绘制。图片是一个ImageVIew,相当于拍照按钮的功能。

    16041

    机器学习为核心,DeepMind助力谷歌开发的 9「Pie」今日上线

    新的设计使的多任务处理更加简便,并且更容易发现 app。用户在手机上向上滑动,就可以查看最近使用的应用全屏,只需点击就可以跳转回其中一个 app。 该系统现在限制了麦克风、和空闲 app 中所有传感器的访问。当 app 的 UID 处于空闲时,麦克风和传感器都会停止报告。应用程序所用的会断开连接,如果应用程序试图使用,会产生错误。 相机、音频、图方面的新体验多 API 和其它拍照更新使用 Android 9,你现在可以在支持多 API 的设备上同时打开来自两个或更多物理的流。 在配备两个前置或两个后置的设备上,你可以实现单个无法实现的创新功能,例如无缝变焦、散景和立体视觉。API 还允许你调用逻辑或融合的机流,该流可以在两个或多个机之间自动切换。 JobScheduler 的数据成本敏感度JobScheduler 是的中心服务,用于帮助你管理定的任务或运行 Doze、App Standby 和 Background Limits。

    19310

    苹果谷歌王者峡谷相遇,只为争夺最耀眼的AR水晶

    今天,谷歌正式向开发者发布了AR开发平台ARCore,目前该版本为版,仅可在Google Pixel和Galaxy S8上运行。 这也示着未来,玩家在浏器上也能使用ARCore或ARKit的上的AR功能。如在网站家居,无需在手机上下载相关应用。 而问题的关键恰恰也出现在这,Tango对于硬件设备的要求极高,需要其配备专门的视觉计算芯片、深度和传感器。 当然这并不是说,所有的设备都可以顺利运行ARCore,其对于一些处理能力还是有一定要求的,如拥有深度感应,因此,谷歌在一定程度上还是排除了一些入门级的设备的。 ARKit应用硬件方面上文也有提及,ARCore对于硬件的要求远没有Tango苛刻,但它并不是没有底线的能够适用于所有设备的,其深度感应还是需要满足谷歌ARCore标准的。

    44880

    实战-如何获取iOS上的微信聊天记录、通过Metasploit控制

    在这篇文章中我们将讨论如何获取、苹果设备中的微信聊天记录,并演示如何利用后门通过Metasploit对设备进行控制。 ” 0×00 条件:设备已获取root权限,装SSHDroid(通过ssh、ftp连接手机)Apple设备越狱,装OpenSSH插件0×01 :很多手机的用户都会遇到这么一个尴尬的问题: webcams webcam_snap Take a snapshot from the specified webcamrecord_mic 通过手机麦克风进行窃听、录音;webcam_list 列出设备的所有 ;webcam_snap 通过进行偷拍…等等0×04 演示视频 ? (Bytecodeviewer)0×06 防&全建议:从可信来源下载应用程序,避免感染恶意程序;在移动充电桩充电前及时关闭USB调试。

    1.9K90

    一周VR热点回顾:抗战胜利72周年,我们的心愿是世界和平

    其AR平台8th Wall XR可以为或iOS开发应用程序,并与ARKit和Tango兼容。据悉,8th Wall XR目前可供Unity开发人员使用,适配其他引擎的开发平台将会在年内推出。 该款华硕MR显由Windows10驱动支持,采用3D多边形图案和光泽效果设计,重量少于400克。显内置两个前置追踪器,可以实现6自由度的三维空间扫描和追踪。 谷歌本周推出了AR开发平台ARCore,为手机带来AR功能。目前该版本为版,仅可在Google Pixel和Galaxy S8上运行。 VRPinea观点苹果和谷歌的战火蔓延到了AR领域,小编作为用户这次站谷歌。宏碁推出两款360度相机Holo360和Vision360? 另外,联想表示显将支持超过100款VR兼容游戏和应用。Lenovo Explorer售价为349美元,计10月份发售。

    39450

    快手高性能移动端多媒体引擎架构

    第一个是“萌面”魔法表情,用户在拍视频的时候。无需3D结构光也可以实时捕捉面部表情,并实时把面部表情通过卡通的形式展现,能够实现非常丰富的面部表情。 对于拍,从相机采集的一帧视频数据先后要经过图算法、滤镜、美颜美妆、魔法特效等模块,然后分成两路,一路给实时,一路给录制,整个流程要在33毫秒之内完成(30fps)。 3.2 拍的架构拍的架构需要支撑起实时采集、实时处理、实时和实时录制的应用场景。整个架构从下往上分成三层。 3.7 硬解码上图是导入一个4K视频进行编辑的场景,左边是市面上一款很火的编辑工具,从页面点击“下一步”到编辑页时,有一个“合成中”的等待,之后才能进入编辑页。 3.8 硬解码存在的问题硬解码在具备以上优点的同时,也存在着很多问题:第一,的机型特别多。第二,解码器的输出格式多样,性能不一。第三,支持的分辨率不一样。

    1.7K43

    快手高性能移动端多媒体引擎架构

    第一个是“萌面”魔法表情,用户在拍视频的时候。无需3D结构光也可以实时捕捉面部表情,并实时把面部表情通过卡通的形式展现,能够实现非常丰富的面部表情。 对于拍,从相机采集的一帧视频数据先后要经过图算法、滤镜、美颜美妆、魔法特效等模块,然后分成两路,一路给实时,一路给录制,整个流程要在33毫秒之内完成(30fps)。3.2 拍的架构? 拍的架构需要支撑起实时采集、实时处理、实时和实时录制的应用场景。整个架构从下往上分成三层。 相比于iOS,端的技术挑战更大。硬件解码是一个老生常谈的问题,相比于软件解码器,硬件解码器更快,特别是在高分辨率视频场景下,优势更加明显。3.7 硬解码? 右边的是快手,同样的视频点击“下一步”,立刻就能进入到编辑页,不需要进行处理,这就是硬件解码器的功劳。3.8 硬解码存在的问题?

    6.8K4234

    如何实现RTMP推送Android Camera2数据

    Camera API2相较于API1有很大不同, 并且API2是为了配合HAL3进行使用的, API2有很多API1不支持的特性, 比如:更先进的API架构;可以获取更多的帧(拍照)信息以及手动控制每一帧的参数 ;对Camera的控制更加完全(比如支持调整focus distance, 剪裁拍照图片);支持更多图片格式(yuvraw)以及高速连拍等。 在API架构方面, Camera2和之前的Camera有很大区别, APP和底层Camera之前可以想象成用管道方式连接, 如下图:​这里引用了管道的概念将设备和之间联通起来,系统向发送 Capture 请求,而会返回 CameraMetadata。 CameraDevice;通过CameraDevice.createCaptureSession() 在回调中获取CameraCaptureSession;构建CaptureRequest, 有三种模式可选 拍照录

    47700

    ubuntu: 驱动

    UVC购买的时候知道了大部分不支持Linux系统。经过@陶大佬的指点,发现可以通过装cheese来激活Ubuntu自带的驱动(UVC)。 Tutorial首先,查看自己要购买的是否支持 UVC驱动 。 如果在 列表:Linux UVC driver and tools 中,则说明支持。装cheese来激活UVC驱动。 只需通过一条简单的指令即可: sudo apt-get install cheese此时,就可以满足即插即用了。 ---- Linux UVC driver and tools Ubuntu使用教程:Ubuntu中通过Cheese支持Webcam Ubuntu下使用Cheese拍照和录

    2.4K30

    Ubuntu驱动

    Ubuntu驱动 a) 请根据内核版本和类型从 http:mxhaard.free.frdownload.html 选择下载最新驱动,该驱动支持市面上大多数。 b) 编译、装连同装载驱动 c) # tar xvzf gspcav1-20061216.tar.gz # cd gspcav1-20061216 # make # make install # modprobe gspca 注意:Ubuntu更新库中也包含了该驱动,能够简单的通过“m-a a-i spca5xx”命令来自动下载并编译装,但是由于库中的代码并不是最新的,对于某些的驱动可能存在问题 ,所以推荐手动下载、编译并装的方式。 d) 用Camorama程式测试及其驱动程式 # apt-get install camorama 从开始菜单启动Camorama程式,假如驱动工作正常,将会在程式中显示动态窗口。

    15320

    「唯物」“刷脸”没能进入消费领域,但“刷眼”也许可以

    虽然这是一款面向消费者的「试水之作」,针对的群体主要是极客和对个人信息全有需求的用户。但这种定位也不可避免的让它成为了一款小众产品。虹膜酷客采用的是双目系统(即双)。 至于个中细节,请参照他与雷锋网之间的对话(摘录有删减):雷锋网:为什么采用双?宫雅:镜子后面是一个间距为 65 毫米双目系统,用来模拟人的视觉。而双目识别能提高成质量。 在光学系统中,视野最中心的地方是成质量最好的区域。越靠近边缘,畸变越严重,分辨率越低。单虽然成本低,但如果拍两只眼睛,双眼一定是在单的最两侧,也是成质量最差的区域。? 图为虹膜酷客采集的虹膜图双目能采集立体信息,比如通过双目成捕捉面部的 3D 信息,颧骨、额是否突出或眼窝是否凹陷,实际上都可以通过双系统进行复原,起到防伪作用。 宫雅:硬件平台是共享的,由于我们之前对企业用户的积累,已经将硬件成本压到很低。虽然国内很多用的是单方案,采集单眼信息,但是双眼方案的成本未必会比单眼高多少。

    42860

    镁客请讲 | 光鉴科技CEO朱力博士:人工智能+纳米光学,赋能机器视觉

    这样将有利于手机上3D结构光的普及量产。策划&撰写:温暖2017年9月,苹果推出基于3D结构光技术的iPhone X,让3D模组方案成为最火爆的话题之一。 其主打的Face ID人脸识别功能不仅成为手机制造商跟进的目标,也示着消费电子自此进入“AI+AR”的新时代。 让3D视觉无所不在从2D到3D的转变被视为从黑白到彩色的第四次革命。3D的出现给了人工智能“开眼看世界”的机会。 光鉴科技创始人兼CEO朱力博士分析到,Apple在3D方案中申请了很多的专利,导致国内手机不能完全借鉴;Apple的3D方案中核心器件VCSEL激光器产能有限,生产数量也无法达到手机的生产量 ;Apple的3D模组方案的成本较高,使得手机短期内只能运用在旗舰版中。

    33420

    扫码关注云+社区

    领取腾讯云代金券