首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果的机器学习,在iOS上能做什么?通俗的例子讲完就懂了

大家好,这里是Mikan橘子科技,不客观但理性

苹果发布A14后,性能上有些令人失望,也让人不禁开始疑惑“这个118亿晶体管都用来做什么了”。其实A14有一项非常明显的升级,那就是神经元网络引擎相对A13提升了80%以上,相比A12更是提升了10倍之多。

但这个“神经元网络引擎”到底是用来做什么的?有人说是机器学习用的,但机器学习,深度学习又是什么?

机器学习:本质上是一种实现人工智能的方法

机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。

这样来说会比较枯燥,举个例子来说就是让机器认识人的脸,识别出照片的不同物体,这都需要大量的数据来不断的“练习”的。在iOS系统中,使用到机器学习的也有很多应用:

●iPhone 11 系列起的「Deep Fusion」

●OS 13 的充电策略,不是直接充满,按历史充电时间学习充电的节奏

●Siri推荐,例如有时候早上起床时会看到一个“早安”项,Siri会给你推荐早起时习惯打开的应用

●「照片」应用学习人脸,生成回忆

●系统级的 垃圾短信识别

●在面容 ID、触控 ID、haptic touch 等技术中应用

●在一些厂商的拍照中也会利用到机器学习,比如相机根据探测拍摄场景自动进行画面优化

●感知比较明显的,则是这个照片的识别学习功能,不但可以学习人脸,还可以学习其他动物或物体,比如这样

还有iOS14新加入的声音识别功能,开启后甚至可以识别出猫叫。。。这个功能是和hey Siri一样常驻的(也就是说两个功能互相冲突只能同时打开一个),只要打开后就会一直识别,识别到设定的声音后会弹出提示,对于听力受损的用户是非常有用的功能。

而在第三方应用方面,苹果也开放了Core ML 接口,部分App可以直接调用系统提供的机器学习api。

下面简单介绍几个例子:

Pixelmator photo

photo版本只有iPad版,在iPadOS14正式发布后,Pixelmator photo更新了一项“黑科技”功能,可以利用A系列仿生芯片的神经元网络引擎来给低分辨率,模糊的图像进行“一键修复”,这个功能可用性是非常大的,。有时候寻找一些图片取自能找到被压缩到很模糊的版本,还有时候一张照片放大后就会显得很粗糙。而这些问题都可以使用这项功能来修复图片。

放大图片可以发现修复后的效果相当明显,字体清晰了很多

值得这个效果十分需要系统的算力,如果是高分辨率图片,哪怕是A12Z处理器,也需要十几秒甚至更久才能修复完成(当然高分辨率图片本身其实也并不需要修复图片细节)。由于软件并无iPhone版本所以无法使用A13来对比测试,等iPad Air4正式发售后感兴趣的小伙伴们可以试一试,这可能是Air4唯一比iPad Pro速度更快的项目了哈。

一键抠图

一键抠图我使用的是knoc来演示了,可以一键抠出人物,物体等

procreate

iPad上面最强的绘图软件,没有之一的procreate也随着iPadOS14更新了最新的5X版本,带来了大量的新鲜功能,其中就有受益于增强现实ARKit和苹果神经网络引擎技术的面容彩绘(FacePaint) 功能

这项功能可以实时在你的脸上直接进行彩绘。同时还兼容包括动画协助及缩时回放在内的所有Procreate功能,让绘画者可以大肆的挥洒创意。

苹果显然是认为AR和AI都是未来不可或缺的技术,早在几年前就开始布局了,相信今后利用到神经元网络引擎技术的应用将会更加丰富,不过按照苹果的风格,应该会让用户不知不觉的使用上这些功能吧。

好了以上就是本篇文章的全部内容了吗,如果喜欢的话欢迎关注我,谢谢大家的耐心阅读。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20201001A04WBC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券