苹果开放机器学习API,但是没有看到苹果的机器学习开发平台

AI科技评论消息,今天凌晨的苹果WWDC主题演讲无疑是果粉的狂欢,它很有可能被捧为最棒的WWDC。这次大会苹果有6大更新,包括了iOS 11、新macOS、升级版Macbook、惊艳的iMac Pro以及智能音箱HomePod等软件硬件产品。

除了新硬件和新系统,苹果在机器学习方面的动作终于给大家展示了成果。这次,苹果不仅在iOS的自家应用中更多使用了机器学习,还把机器学习功能作为iOS API的一部分向开发者开放,希望开发者们也用机器学习的力量开发出更好的应用程序。苹果把这个机器学习功能叫做Core ML。负责软件的苹果高级副总裁Craig Federighi在昨晚的演讲中做了总体介绍,AI科技评论结合官网的详细信息给大家带来更深入的解读。

iOS中的机器学习

在iOS的本身功能里,苹果已经尝试用机器学习带来更好的用户体验,比如在iPad上利用机器学习识别手写便签的文本、在iPhone上通过学习和预测用户的使用习惯来让iOS更省电、在照片app里自动创建的回忆相册以及面部识别,现在iOS11中的Siri也利用机器学习带来了更多贴心的功能和更流畅的对答。

接下来,苹果想让开发者也利用机器学习、或者利用苹果已经开发出的功能做出更多美妙的应用。

苹果首先拿出了在已经自家应用中使用的Vision API和Natual Language API,分别负责图像识别处理和自然语言识别处理。

Vision API,已经运用在照片app中,提供了如下功能:

  • 面部追踪
  • 面部识别
  • 地标
  • 文本识别
  • 正方形识别
  • 条码识别
  • 物体追踪
  • 图像匹配

Natual Language API,已经运用在邮件和iMessage中:

  • 语言检测
  • 符号化识别
  • 词形还原
  • 对话分段
  • 实体名称识别

AI科技评论了解到,还有一个GameplayKit API也会开放,它的主要功能是评估决策树。

这三个API开放以后,开发者就可以直接在自己的app中调用相关功能,无需自己重新开发机器学习模型就可以享用美妙的成果。可以期待,随着iOS的更新,不管是系统app里还是用到这些功能的app,都会变得越来越准确、越来越好用。

Core ML

前几个特定用途的API都运行在Core ML之上。开发者如果想要运行自己的机器学习模型,那它也会运行在Core ML上。当然啦,自己的模型还是要先训练好才能拿来在Core ML上运行的,Core ML提供的只是多样、高效的推理运行环境。

Core ML可以支持多种网络模型,可以支持深度神经网络、复发神经网络、卷积神经网络,可以支持超过30种不同类型的层,还可以支持标准的支持向量机SVM、树集成、广义线性模型。

而且开发者可以把以上几个第三方工具创建、训练好的机器学习模型直接拿到Core ML里面来用。

Core ML会运行在本地,这样数据的隐私性安全得以保证,而且可以跟苹果系列OS的特色功能有更好的配合,另外也避免了网络环境影响app功能的问题。

执行性能方面苹果已经提前想了办法,据Craig介绍,Core ML的执行性能很高,通过Machine Learning Model Converter,在iOS设备上就会有很好的运行表现,执行速度非常快,在图像识别benchmark中比Google Pixel和三星S8快6倍。

根据官网资料,由于Core ML是基于iOS底层的Metal和Accelerate开发的,所以Core ML利用CPU和GPU资源的效率非常高,性能也可以全部发挥出来。

苹果已经在官网机器学习介绍页面(https://developer.apple.com/machine-learning/)提供了四种训练好的机器学习模型,模型转换工具也在这个页面中提供了下载。感兴趣的开发者可以去下载试试了。

苹果没有做大而全的人工智能平台

去年苹果收购了西雅图的机器学习初创公司Turi以后,继续在西雅图成立了自己的人工智能研究实验室,聘请了华盛顿大学教授Carlos Guestrin作为机器学习总监。Carlos Guestrin也是机器学习领域的顶尖人物之一,获得过美国国家科学基金会的职业荣誉奖和顶尖人工智能会议IJCAI的计算机与思想奖,而且也创办过机器学习公司。

不过到了今天苹果向开发者展示人工智能app开发的时候,明显能感觉到苹果的做法与Facebook、Google有所不同。相比于基于caffe/caffe2和TensorFlow的一大堆开发环境和云服务,苹果只是发布了一个可以在设备上运行训练好的机器学习应用的API,表现出苹果似乎对自己做前沿研究和帮助开发者做前沿研究都没什么兴趣。

曾在2013年到2017年带领过苹果人工智能开发的Daniel Gross对苹果公司的态度做了精确的表述:“苹果的内部目标是造出伟大的产品,而不是发论文”。

所以苹果没有发布自己的机器学习开发平台、没有发布开发硬件,也没有对外公布是否挖了机器学习专家到自己团队,在这种态度下就都合情合理了。苹果愿意开发人工智能应用、愿意用人工智能改善用户体验,但是目前苹果并没有做开放的前瞻性研究。从以往的苹果产品也可以看到,苹果的风格通常不是一旦有新技术就拿来做产品,而是等到成熟一些、确认能够对用户体验带来改善,才会凭借高超的工程能力把他们运用在产品中。

这不免让人对苹果有所担心。所有人都判断人工智能/机器学习会占据越来越重要的位置、能够做的事情越来越多,但当年率先发布智能助理Siri的苹果现在已经在开发和研究环境、前沿研究成果、影响力几个方面都落在了后面。不过,现在距离机器学习的全面突破还有一段距离,苹果的姿态是否会在突破点到来之前有任何改变,我们拭目以待。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-06-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏CDA数据分析师

【零一】#操作教程贴#从0开始,教你如何做数据分析#中阶#第六篇

HI~!我是零一,好久不见了。今天开始我们一起来学习数据分析的中阶课程。我的公众微信号是start_data,欢迎大家关注。 今天的内容主要是理清数据分析的主要...

17610
来自专栏镁客网

黑科技 | 平面显微镜让失明者恢复视觉?莱斯大学推出可控制视觉系统

1577
来自专栏量子位

挑动AI斗AI,Google发起一场伟大的试验,结果……

量子位 | 舒石 发自 LZYY ? 未来是我们的,也是你们的,但归根结底可能是AI的。 从简单常规的交通灯,到复杂如国家经济体系,也许不需要多少年之后,人类...

2715
来自专栏大数据文摘

过快、过量、过度:三类数据驱动型决策中的常见问题(附大量资源)

1235
来自专栏DT数据侠

有了这些创意美学,城市数据的趣味性超乎你的想象

你访问过政府开放数据网站吗?虽然开放的数据越来越多,但“可用性有待改善”仍是不少公众对这类网站的共同看法。如何才能让开放数据更好用,并打通公共数据到普通公众的“...

750
来自专栏AI研习社

谷歌公布视频内容搜索 API 等 | 开发者头条

谷歌收购大数据竞赛平台 Kaggle 谷歌公布新机器学习 API:从视频中识别物体 Facebook 开源新一代机器学习 GPU 服务器 Big Basin ...

2665
来自专栏腾讯音视频实验室

腾讯音视频实验室杰出科学家刘杉:我们处于视频编解码标准制定的起点,而非终点。

2017年12月28日,由腾讯社交网络事业群(SNG)主办TSAIC学术&工业交流盛会在腾讯滨海大厦举行,150余位来自麻省理工、斯坦福、卡耐基梅隆、清华、中科...

2979
来自专栏新智元

谷歌TPU 3.0重磅发布;I/O大会上机器人真的能打Call!

1825
来自专栏新智元

【开源之战】在搜集人类语音数据上,谷歌与火狐展开正面交锋

【新智元导读】巨头都在争相开源,那么彼此之间会不会形成竞争?近日,火狐浏览器的所有者 Mozilla 开源了一个语音数据库,与谷歌所做的数据库高度类似。这篇文章...

2773
来自专栏人工智能快报

微软发布情绪识别API

2015年11月11日,微软宣布其Oxford项目将开放一个可用于情绪识别的API。微软一位负责技术与研究的人员表示该API可帮助市场营销人员评估顾客对商店展示...

3704

扫描关注云+社区