生产环境中使用Apache Kafka的可扩展的机器学习 智能实时应用程序是任何行业的游戏规则改变者。机器学习及其子课题深度学习正在获得动力,因为机器学习使计算机能够在没有明确程序设计的情况下找到隐藏的见解。分析非结构化数据,图像识别,语音识别和智能决策需要此功能。这与使用Java,.NET或Python的传统编程有很大的不同。 虽然机器学习背后的概念并不新鲜,但大数据集和处理能力的可用性使得每个企业都可以构建强大的分析模型。任何行业都有大量的使用案例,通过在企业应用程序和微服务中应用分析模型来增加收入,
自ChatGPT横空出世以来,围绕GPT的话题只增不减,属于AI+的时代已经悄然来临。科技在进步,人类在发展。近期,各大厂商纷纷推出了自己的产品和服务并在持续的更新迭代优化当中。如,微软的New Bing、谷歌的Bard、百度的文心一言等等。如何使技术落地,结合应用场景开发出更多产品出了,是接下来需要思考研究的问题。
作者|Seth Weidman 译者|大愚若智 编辑|Emily 为何阅读本文? 无论该领域中的从业者,或是企业组织,为了运用深度学习技术,首先需要做好两个准备: “能做什么”:了解深度学习领域的最新进展能够用来做什么。 “怎么做”:训练新模型,或将现有模型用于生产环境的技术能力。 在开源社区的努力下,第二个问题正变得越来越容易。目前已经有大量优秀的教程在告诉大家,如何使用诸如 TensorFlow 等库训练并使用深度学习模型,很多教程甚至每周都会发布新的内容,例如 Towards Data Scien
选自谷歌博客 作者: Jeff Dean 机器之心编译 编辑:杜伟、陈萍 今日,谷歌研究院高级研究员及高级副总裁 Jeff Dean 代表谷歌研究社区,发表了一篇博客,回顾了 2022 年在语言模型、CV、多模态模型和生成 ML 模型等领域取得的新进展,并对 2023 年及之后的发展进行了展望。 机器之心对博客内容进行了简要的编译整理,全文如下: 我一直对计算机很感兴趣,它能够帮助人们更好地了解周围的环境。过去十年,谷歌所做的大部分研究都在追求类似的愿景,帮助人们更好地了解周围的世界并完成工作。我们希望制
近期热门的话题, 人们开始重新讨论这一基本定义----什么是人工智能(AI)。有些人将 AI 重新命名为「认知计算」或「机器智能」,而其他人则错误地将 AI 与「机器学习」概念进行交换。在某种程度上,这是因为 AI 不是一种技术。它实际上是一个由许多学科组成的广泛领域,从机器人学到机器学习。我们大多数人都认为,人工智能的终极目标是为了建造能够完成任务和认知功能的机器,否则这些机器只能在人类的智能范围内从事相关工作。为了实现这一目标,机器必须能够自主学习这些能力,而不是让每个功能都被端到端地明确编程。
2015年12月,OpenAI公司于美国旧金山成立。OpenAI最初成立旨在实现DeepMind 和Google无法做到的一切。它将作为一个非营利组织运营,致力于使先进人工智能的好处民主化,并承诺发布其研究成果,并开源其所有技术。
【新智元导读】特征学习和深度学习重要会议 ICLR 2016 最佳论文,DeepMind 团队开发了一个“神经编程解释器”(NPI),能自己学习并且编辑简单的程序,排序的泛化能力也比序列到序列的 LSTM 更高。机器,已经可以取代部分初级程序员的工作了。 题目:神经程序解释器(Neural Programmer-Interpreters) 作者:Scott Reed & Nando de Freitas,Google DeepMind 摘要 我们提出了一种神经编程解释器(Neural Programmer-
寄语:PyCaret,是一款 Python中的开源低代码(low-code)机器学习库,支持在「低代码」环境中训练和部署有监督以及无监督的机器学习模型,提升机器学习实验的效率。
T5 是一个文本到文本迁移 Transformer 模型,通过将所有任务统一视为一个输入文本并输出文本,其中任务类型作为描述符嵌入到输入中。该模型使单个模型可以执行各种各样的有监督任务,例如翻译、分类、Q&A、摘要和回归(例如,输出介于 1 到 5 之间两个句子之间的相似性得分。实际上,这是一个 21 类分类问题,如下所述)。该模型首先在大型语料库上进行无监督的预训练(像 BERT 中一样的隐蔽目标),然后进行有监督训练,其中包含代表所有这些任务的输入文本和相关带标签的数据,也就是文本(其中输入流中的特定标记“将英语翻译为法语”或“ stsb句子1:…句子2”,“问题” /“上下文”等对任务类型进行编码,如上图所示,模型经过训练输出与标记数据匹配的文本。)通过这种为监督学习指定输入和输出的方法,该模型在所有不同的任务之间共享其损失函数、解码器等。
从旧式编程语言(例如COBOL)到现代语言(例如Java或C ++)的代码库迁移是一项艰巨的任务,需要源语言和目标语言方面的专业知识。
刚刚在Google I/O 大会上,Google发布PaLM2及超过 25 款由 PaLM 2 提供支持的新产品和功能。这意味着 PaLM 2 将最新的高级人工智能功能直接引入我们的产品和人们——包括全球消费者、开发人员和各种规模的企业。它的能力到底怎么样?让我们详细的看一看。
今日,那个被很多网友称为「ChatGPT 最强竞品」的人工智能系统 Claude 迎来了版本大更新。
将早期的编程语言(例如COBOL)的代码库迁移到现在的编程语言(例如Java或C++)是一项艰巨的任务,它需要源语言和目标语言方面的专业知识。COBOL如今仍在全球大型的系统中广泛使用,因此公司,政府和其他组织通常必须选择是手动翻译其代码库还是尽力维护使用这个可追溯到1950年代的程序代码。
而迁移学习之所以如此有效,得益于其利用自监督任务(如语言建模或填充缺失词)在大量可用的无标注的文本数据上对模型进行预训练;接着,又在更小的标注数据集上对模型进行微调,从而让模型实现比单单在标注数据上训练更好得多的性能。
选自blog.insightdatascience 作者:Javed Qadrud-Din 机器之心编译 参与:Edison Ke、刘晓坤 来自 Insight 的 Javed Qadrud-Din 开源了一种通用的实体嵌入算法,相比谷歌的 word2vec 模型能实现更广泛实体(包括名人、商家、用户等)的嵌入、更高的准确率以及少 4 个数量级的数据需求量。 GitHub 链接:https://github.com/javedqadruddin/person2vec Javed Qadrud-Din 先前曾
本贴总结了2019年Reddit机器学习板块中分享的17个令人印象深刻的项目、研究、demo以及更多相关内容。其中既包括AI大厂的高光项目(GPT-2、StyleGAN等),也有小团队甚至个人做出的有趣的东西。希望小伙伴们能在这些精选资源中获得自己的收获。
呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!
您是否有时侯觉得机器学习内容太广泛而无法紧跟脚步?当然会有这种感觉。下面是去年自然语言处理(NLP)的主要发展方向:
7 月 10 日,Google AI 负责人、「程序员大神」Jeff Dean,以及谷歌几位研究人员在日本东京与人们分享了如何运用 AI 解决当下众多社会问题,包括医疗、环境保护和灾难预防等领域问题的方法。
总之,一个机器学习框架包括如何处理数据,分析方法,分析计算,结果评估和结果利用。 一个好的机器学习框架需要处理大规模数据提取和数据预处理,还需要处理快速计算、大规模和高速的交互式评估,以及简单易懂的结果解释和部署。
Google Colab NoteBook可实现数据科学的民主化。允许所有人— AI研究人员,艺术家,数据科学家等。—在每台设备(甚至在智能手机)上享受机器和深度学习的功能。只需运行单元,更改参数,值和源,即可享受AI的多样性。
译者 | reason_W 编辑 | Just 对大多数企业来说,机器学习听起来就像航天技术一样,属于花费不菲又“高大上”的技术。如果你是想构建一个 Netflix 这种规模的推荐系统,机器学习确实是这样的。(注:Netflix是美国流媒体巨头、世界最大的收费视频网站,曾于 2017 年买下《白夜追凶》全球播放权。)但受万物皆服务(everything-as-a-service)这一趋势的影响,机器学习这一复杂的领域也正在变得越来越接地气。所以现在哪怕你只是一个数据科学领域的新手,并且只想实现一些很容易
编译:ShanLIU、Chloe、笪洁琼、Harry 作者:Seth Weidman 阅读这篇文章的必要性: 无论是作为行业内的从业者还是一个组织,在开始深度学习应用之前,都需要掌握两件事: 1. 知其然:掌握一个基础概念,知道深度学习的最新发展可以实现什么。 2. 知其所以然:训练一个新模型或在生产环境下运行一个已有模型的技术能力 得益于开源社区的优势,我们获得“知其所以然”能力的途径越来越多。网上有大量优质的教程,讲解如何训练、使用深度学习模型的技术细节,例如借助TensorFlow这样的开源软件库来
在最近几个月中,我们已经帮助许多公司在各种环境中部署其AI / ML模型。我们为医疗行业的模型部署做出了贡献,在过去的几个月中,我们已经帮助多家公司将经过训练的模型转移到不同类型的IoT设备上。特别是在IoT设备情况下,要求通常很严格:计算周期数和可用内存通常都受到限制。
TensorFlow 估算器提供了一套中阶 API 用于编写、训练与使用机器学习模型,尤其是深度学习模型。在这篇博文中,我们描述了如何通过使用异步执行来避免每次调用预测方法时都需重载模型,从而让 TF 估算器的推断提速超过百倍。
为什么 transformer 性能这么好?它给众多大语言模型带来的上下文学习 (In-Context Learning) 能力是从何而来?在人工智能领域里,transformer 已成为深度学习中的主导模型,但人们对于它卓越性能的理论基础却一直研究不足。
在加拿大蒙特利尔的一座共享办公大楼里,一间角落办公室里遍布着满是代码的黑色大屏幕。显示器并排堆放着,一个挨着一个,对于Facebook AI实验室(FAIR)加拿大团队的20多名研究科学家和工程师来说,几乎没有足够的空间了。
神经网络在过去的几年中取得了惊人的进展,现在它们已经成为图像识别和自动翻译领域的领先技术。TensorFlow是Google发布的用于数值计算和神经网络的新框架。在这篇博文中,我们将演示如何使用TensorFlow和Spark一起来训练和应用深度学习模型。
李林 若朴 编译整理 量子位 出品 | 公众号 QbitAI 少年,你知道Jeff Dean么? 传奇一般的Jeff Dean现在领导着Google Brain团队,也是Google研发群组的高级研究
向大家推荐一个 TensorFlow 工具———TensorFlow Hub,它包含各种预训练模型的综合代码库,这些模型稍作调整便可部署到任何设备上。只需几行代码即可重复使用经过训练的模型,例如 BERT 和 Faster R-CNN,实现这些些牛X的应用,简直和把大象装进冰箱一样简单。
正如业界此前所预料的,Android和Wear OS都迎来了一波更新,更是贴上了“史上最大升级”、“最具雄心之一”等标签。
语音识别 TensorFlow 1.x中提供了一个语音识别的例子speech_commands,用于识别常用的命令词汇,实现对设备的语音控制。speech_commands是一个很成熟的语音识别原型,有很高的正确率,除了提供python的完整源码,还提供了c/c++的示例程序,方便你移植到嵌入设备及移动设备中去。 官方提供了关于这个示例的语音识别教程。不过实际就是一个使用说明,没有对代码和原理做过多解释。 这个程序相对前面的例子复杂了很多,整体结构、代码、算法都可以当做范本,我觉得我已经没有资格象前面的
自Transformers诞生以来,紧随其后的是BERT,在几乎所有与语言相关的任务中,无论是问题回答,情感分析,文本分类还是文本生成,都占据着NLP的主导地位。与RNN和LSTM消失的梯度问题(不影响长数据序列的学习)不同,Transformers在所有这些任务上的准确性更高。RNN和LSTM不可扩展,因为它们必须考虑先前神经元的输出。
来源:Google blog 编译:马文 Cecilia 【新智元导读】谷歌宣布推出 TensorFlow Lite,这是 TensorFlow 的针对移动设备和嵌入式设备的轻量级解决方案。这个框架针对机器学习模型的低延迟推理进行了优化,重点是小内存占用和快速性能。利用TensorFlow Lite,即使在半监督的设置下,也可实现在手机端跨平台训练ML模型。 今年早些时候,谷歌推出了 Android Wear 2.0,这是“设备上”(on-device)机器学习技术用于智能通讯的第一款产品。这使得基于云的
可以负责任的告诉你,Java 目前的主要应用方向是Web开发和Android开发,大部分IT公司招聘的Java程序员也是从事这两方面的工作。
自从 OpenAI 向公众发布ChatGPT以来的过去几个月里,我们都见证了围绕 ChatGPT 的各种测评,并为它带来的效果感到惊艳。昨晚Google开放了自家研发的AI聊天机器人Bard的测评入口,但是目前只对部分人员开放测试且只支持英文。尽管 Bard 还未正式面向大众,但博主查找了国外大量资料,深入研究了Bard的相关原理,探讨它与 ChatGPT 的对比情况,以及这两款聊天机器人之间的关键差异。以下是我们目前掌握的信息。
此刻,一辆无人驾驶的小型货车正行驶在亚利桑那州凤凰城的郊外。你可能会担忧它是否安全,但为这辆车打造了自动驾驶大脑的 Waymo 希望能向你保证,这辆车是很安全的。
以下技巧旨在让您更轻松。这不是必须做的清单,但应该被视为一种参考。您了解手头的任务,因此可以从以下技术中进行最佳选择。它们涵盖了广泛的领域:从数据增强到选择超参数;涉及到很多话题。使用此选择作为未来研究的起点。
就像在学校上课一样,神经网络在“训练”阶段得到的教育跟大多数人一样——学会去做一份工作。
科学研究是一项严肃而又不失活泼的艺术。尤其在人工智能领域,产品应用一直在攻坚人类的琴棋书画天赋。例如AlphaGo下棋能够虐哭柯洁,使用GAN创作的音乐既美妙又动听,创作的抽象画作能够卖出天价.....
在机器学习的领域中,张量指的是描述神经网络的数学模型中使用的多维数组。换言之,张量通常是一个矩阵或矢量的更高维泛化。 通过一种使用秩来显示维数的简单表示法,张量可以将复杂的 n 维矢量和超形状表示为 n 维数组。张量有两个属性:数据类型和形状。 关于 TensorFlow TensorFlow 是一个开源的深度学习框架,于 2015 年末依据 Apache 2.0 许可进行发布。自那以后,它成为了在全球得到最广泛采用的深度学习框架之一(根据它的 GitHub 项目数量来判断)。 TensorFlow 的起源
深度学习系统可以帮助放射科医师优先考虑胸部 X 光的检查,还可以在没有经验丰富的放射科医师的紧急情况下作为第一反应工具。研究结果表明,虽然深度学习还没有接近取代放射科医生,但在世界正面临医学专家严重短缺的情况下,它可以帮助提高他们的工作效率。
AI 科技评论按:深度神经网络(DNN)作为机器学习的基础,为图像识别、图像分割、机器翻译等诸多领域取得突破性进展做出了重大贡献,然而研究人员始终都无法完全理解支配 DDN 的基本原理。其中,泛化是预测和理解 DNN 在未见过样本上的性能的重要指标,而理解泛化的一个重要概念便是泛化鸿沟(generalization gap)。基于此,谷歌的这篇 ICLR 2019 论文提出使用跨网络层的标准化边际分布作为泛化鸿沟的预测因子,对边际分布与泛化之间的关系进行了实证研究,结果表明边际分布的一些基本统计量可以准确地预测泛化鸿沟。谷歌发表文章对该论文进行了介绍,AI 科技评论编译如下。
这两节主要介绍了Java的历史,以及对Java的各种特性做了一个全面的概括性介绍,可以让我们窥得Java的全貌。
综述 本篇博文将向大家演示,如何在仅仅运用78行代码的情况下,利用 Keras 和 Gym 实现深度强化学习,使得 CartPole 这款游戏得以成功运行。 即使你不知道强化学习是什么也没关系,我会
要了解更多关于Apache Spark的信息,请参考Spark Summit East in the New York in Feb 2016。
第二届AI HW峰会于9月17日至18日在硅谷中心举行,近五十位发言人向500多位与会者进行了演讲(几乎是去年首届听众人数的两倍)。所有的信息来自于峰会。
两周前,Facebook大张旗鼓地开源了Caffe2深度学习框架,它在英伟达DGX-1平台上的高性能表现极为亮眼。 Google立刻动手反制,没几天就给出新版的TensorFlow测试数据,在性能上开始压制Caffe2。 由此看来,要在人工智能上赶超Google,Facebook仅仅靠模仿还是不够的,而Google也绝不甘心坐以待毙。 不管怎么说,留给Facebook的时间不多了。 我们先来对比一下双方的测试结果:除了VGG16模型测试中的8核数据,其余结果上TensorFlow均处于优势。
Google的目标是致力于解决长期问题,重点是那些在日常生活中能极大帮助人们的问题。为了在2019年实现这一目标,Google Research基础研究的多个领域取得了进展,并将研究成果应用于医疗保健和机器人等新兴领域,开放了大量源代码,并继续与产品团队合作,构建对用户更有帮助的工具和服务。
领取专属 10元无门槛券
手把手带您无忧上云