首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

业界 | TensorFlow 2.0 Alpha 版来了!吴恩达配套课程同步上线

此外,TensorFlow 2.0 Alpha 版还带来了一些新的功能,允许研究人员和高级用户使用丰富的扩展进行实验, Ragged Tensors、TensorFlow Probability、Tensor2Tensor...此外,Eager execution 还有助于原型制作、调试和监控运行的代码,用户可使用 Python 调试程序检查变量、层及梯度等对象,并利用装饰器「@tf.function」内置的 Autograph...《TensorFlow:从入门到精通》是 Deeplearning.ai 的一系列实践课程,由吴恩达老师参与开发并执教,目的在于帮助大家了解: 如何在 TensorFlow 构建机器学习模型 利用深度神经网络和卷积神经网络构建图像识别算法了解...如何在移动设备和网络上部署模型 学习图像识别以外的物体检测、文本识别等,进入等 扩展针对自定义学习/训练的基本 API 除了吴恩达老师,该课程的另一重量级教师为 Laurence Moroney 博士...它采用一种联合学习(Federated Learning,FL)的机器学习方法,可在多个客户端上训练共享的全局模型,同时在本地保存训练数据。

1K10

利用谷歌的联邦学习框架Tensorflow Federated实现FedAvg

Federated Learning (FL) API:该层提供了一组高级接口,允许开发人员将包含的联邦训练和评估实现应用到他们现有的TensorFlow模型。 2....不过有一点需要注意:客户端参与联邦学习的主要动机是获得更好的模型客户端如果没有足够的私人数据来开发准确的本地模型,就可以从联邦学习的模型获益。...联邦学习 原始论文中提出的FedAvg的框架为: 本文中需要利用各个客户端模型参数来对服务器端的模型参数进行更新,这里采用TensorFlow的Keras模块来简单搭建了一个神经网络: model...TensorFlow Federated 1....aggregation_process:一个tff.templates.MeasuredProcess对象,它将客户端模型权重聚合更新回服务器。 7.

77030
您找到你想要的搜索结果了吗?
是的
没有找到

重磅发布2.0 Alpha版,TensorFlow新定位:端到端开源机器学习平台

虽然在此之前关于 TensorFlow2.0 的众多更新已经放出,但作为当前最为流行的深度学习框架,2.0 Alpha 版的正式发布依旧引人关注。...据现场介绍,目前为止 TensorFlow 已经被下载超过 4100 万次、提交 5 万多次代码更新、1800 多位贡献者。 ?...TFF 旨在促进联合学习(Federated Learning,FL)的开放性研究和实验,联合学习是一种机器学习方法,可在多个客户端上训练共享的全局模型,同时在本地保存训练数据。...TensorFlow Federated 让开发者能够展示和模拟联合学习系统。如图所示,每部手机在本地训练模型 (A)。它们的更新会汇总到一起 (B),形成一个改进后的共享模型 (C)。...Github 地址:https://github.com/tensorflow/privacy 现代机器学习越来越多地被应用到新技术和用户体验,很多应用需要基于敏感数据(个人照片或邮件)来训练。

96340

联邦学习 (FL) 中常见的3模型聚合方法的 Tensorflow 示例

FL的客户端与中央服务器共享他们的模型更新以聚合更新后的全局模型。全局模型被发送回客户端客户端可以使用它进行预测或对本地数据采取其他操作。 FL的关键概念 数据隐私:适用于敏感或隐私数据应用。...模型聚合:跨不同客户端更新模型并且聚合生成单一的全局模型模型的聚合方式如下: 简单平均:对所有客户端进行平均 加权平均:在平均每个模型之前,根据模型的质量,或其训练数据的数量进行加权。...联邦平均:这在减少通信开销方面很有用,并有助于提高考虑模型更新和使用的本地数据差异的全局模型的收敛性。 混合方法:结合上面多种模型聚合技术。...通信开销:客户端与服务器之间模型更新的传输,需要考虑通信协议和模型更新的频率。 收敛性:FL的一个关键因素是模型收敛到一个关于数据的分布式性质的良好解决方案。...实现FL的简单步骤 定义模型体系结构 将数据划分为客户端数据集 在客户端数据集上训练模型 更新全局模型 重复上面的学习过程 Tensorflow代码示例 首先我们先建立一个简单的服务端: import

1.1K51

让数百万台手机训练同一个模型?Google把这套框架开源了

近日,Google 开源了一款名为 TensorFlow Federated (TFF)的框架,可用于去中心化(decentralized)数据的机器学习及运算实验。...这种被称为联邦学习的框架目前已应用在 Google 内部用于训练神经网络模型,例如智能手机虚拟键盘的下一词预测和音乐识别搜索功能。...图注:每台手机都在本地训练模型(A);将用户更新信息聚合(B);然后形成改进的共享模型(C)。...从开发者的角度来讲,FL 算法可以看做是一个普通的函数,它恰好具有驻留在不同位置(分别在各个客户端和协调服务的)输入和输出。...最后附上 TF Dev Summit’19 上,TensorFlow Federated (TFF)的发布会现场视频: 参考链接:https://medium.com/tensorflow/introducing-tensorflow-federated-a4147aa20041

2.2K20

联邦学习简介

总结起来就是:部分模型、部分模型参数(或梯度扽个)可共享,数据不可共享。因为共享的是模型而不是数据,可以最大限度避免数据泄漏,相比数据脱敏的相关算法(K-annoymity),保密性更强。...C初始化一个空模型 C将当前的模型参数传输到A A设备根据数据,计算模型参数(或梯度等) A设备将更新后的模型参数(或梯度)上传 B对来自不同设备的模型参数(或梯度)聚合,例如简单取平均值 C更新根据...B聚合后的结果,更新模型 回到第2.步,循环往复 从来自wiki的图片也可以看出来,大体过程: ?...Reference [1] https://ai.googleblog.com/2017/04/federated-learning-collaborative.html [2] https://blog.tensorflow.org.../2019/03/introducing-tensorflow-federated.html [3] https://www.fedai.org/ [4] https://aisp-1251170195

1.3K40

教程 | TensorFlow 官方解读:如何在多系统和网络拓扑构建高性能模型

在基准脚本包括 3 个变量分布和聚合的例子: 参数服务器,训练模型的每个副本都从参数服务器读取变量并独立更新变量。...参数服务器变量 在 Tensorflow 模型管理变量的最常见方式是参数服务器模式。 在分布式系统,每个工作器(worker)进程运行相同的模型,参数服务器处理其自有的变量主副本。...Tensorflow 在运行时会将隐式副本添加到图形,这使得在需要它的计算设备上变量值可用。当在工作器上计算梯度时,这个梯度会被传输到拥有特定变量的参数服务器,而相应的优化器被用于更新变量。...在我们的模型,我们展示了在工作器引入同步机制是非常容易的,所以在下一步开始之前所有的工作器必须完成更新。...在示例模型,这是在一个拥有交叉副本的负载在等待所有的模块完成变量更新后进行的,并且只有在负载被所有副本释放以后才能获取新的变量。

1.7K110

这项技术是谷歌AI的New Sexy:利于隐私、节能环保,目前最大挑战是布道阐释

工作原理可以分6步解释: 智能手机下载当前版本的模型; 通过学习本地数据来改进模型; 把对模型的改进,概括成一个比较小的专门更新; 该更新被加密发送到云端; 与其他用户的更新即时整合,作为对共享模型的改进...; 所有的训练数据仍然在每名终端用户的设备,个人更新不会在云端保存。...↓↓↓ 传送门 今年3月,谷歌也推出了TensorFlow Federated (TFF)开源框架,用于对分散式数据进行机器学习和其他计算。...FL API链接: https://www.tensorflow.org/federated/federated_learning FC API: https://www.tensorflow.org.../federated/federated_core 教程: https://www.tensorflow.org/federated/tutorials/federated_learning_for_image_classification

60310

一文梳理隐私计算联邦学习推荐系统研究进展

常规的联邦学习是通过随机的挑选客户端来进行参数的平均聚合更新,针对于此,本文对客户端更新的选择以及参数的聚合方式进行了优化,使得模型更快速的达到收敛的状态。...本文通过设计一个ActvSAMP算法来对客户端进行聚类,然后再从不同的聚类挑选待更新客户端 ,随后再利用ActvAGG聚合算法对类内的客户端(subordinates)进行与挑选出的客户端(delegates...更具体的,ActvSAMP算法是利用客户端的其他具有隐私保护属性(比如设备类型、地区等)的特征来进行聚类 ,然后再从每个聚类挑选出 个区别较大的客户端组成待更新客户端集合 。...其次,本地模型包含不同的组件来实现模型的异质性。另外,客户端执行细粒度的个性化更新策略来实现统计的异质性。...总结 本文总结了几篇基于联邦学习范式的推荐系统,分别从不同的层面对基本的联邦学习更新方式进行了优化,比如如何实现更好的聚合参数、如何更好的挑选待更新客户端、如何保持更严格的隐私保护、如何减少更新过程的通信量等

1.3K40

联邦学习怎样应用在推荐系统

在联邦学习的训练过程,用户的原始数据始终保留在用户(客户端)本地,服务端和用户之间通过共享加密的或不包含隐私信息的中间参数的方式,进行模型训练和参数更新,进而在保护用户隐私的前提下构建一个有效的机器学习模型...去中心化架构的训练流程为: 服务端初始化模型参数,然后将模型参数发送给各个客户端客户端利用本地数据进行模型训练并更新本地的模型参数; 客户端选取一些其他客户端, 发送本地的中间参数,同时接收其他客户端的中间参数...在模型训练过程客户端能以匿名的方式发送中间参数给其他客户端,从而解决客户端之间的隐私泄露问题。(2)节省服务端的资源。服务端仅需初始化模型参数,将模型参数分发给各个客户端,不需要参与模型更新。...边缘计算和知识蒸馏是两个解决客户端资源受限的研究思路 目前还没有公开发表的面向序列反馈和异构反馈建模的联邦推荐方法 3.2 联邦推荐系统的优化 模型压缩、通信策略的改进、激励机制和客户端采样等优化方法如何在联邦推荐模型应用...如何为特定的推荐模型设计更有效的优化算法 3.3 联邦推荐场景的隐私安全问题 如何衡量联邦场景的隐私安全问题,并对已有工作存在的隐私问题,设计一个更为有效的解决方法 如何在可能存在恶意的客户端和服务端或者存在一些数据质量较低的客户端的环境下

1K51

一文梳理联邦学习推荐系统研究进展

常规的联邦学习是通过随机的挑选客户端来进行参数的平均聚合更新,针对于此,本文对客户端更新的选择以及参数的聚合方式进行了优化,使得模型更快速的达到收敛的状态。...本文通过设计一个ActvSAMP算法来对客户端进行聚类,然后再从不同的聚类挑选待更新客户端 ,随后再利用ActvAGG聚合算法对类内的客户端(subordinates)进行与挑选出的客户端(delegates...更具体的,ActvSAMP算法是利用客户端的其他具有隐私保护属性(比如设备类型、地区等)的特征来进行聚类 ,然后再从每个聚类挑选出 个区别较大的客户端组成待更新客户端集合 。...其次,本地模型包含不同的组件来实现模型的异质性。另外,客户端执行细粒度的个性化更新策略来实现统计的异质性。...总结 本文总结了几篇基于联邦学习范式的推荐系统,分别从不同的层面对基本的联邦学习更新方式进行了优化,比如如何实现更好的聚合参数、如何更好的挑选待更新客户端、如何保持更严格的隐私保护、如何减少更新过程的通信量等

1.1K20

面向联邦学习的模型测试和调优怎么整?这篇三万字长文给你答案

在联邦学习的环境下,多个客户端设备(移动设备或整个组织)在中央服务器(服务提供商)的协调下协同训练一个模型,同时保持训练数据的分散性。...收集数据并预处理后加以使用,学习程序是运行训练模型的代码,框架( Weka、scikit-learn 和 TensorFlow)则提供了算法和其他库以供开发人员在编写学习程序时选择。...而在联邦学习需要调整的超参数就更多了,包括聚合 / 全局模型更新规则和本地客户端优化器的单独调整,每轮选择的客户端数量,每轮执行本地步骤的次数,更新压缩算法的配置,等等。...在云端设备,使用 Federated Averaging 组合更新权重,进而构建全局模型并将其推送给手机。该系统已实现规模化的应用,例如,手机键盘领域。...此外,设备上的匹配逻辑进一步限制任务的执行,这些匹配逻辑检查任务描述符列出的额外前提条件。这些前提条件通常是指设备的全局变量,设备或操作系统的类型和版本。

73210

前沿综述 | 联邦学习及其在医疗领域的应用

作为隐私计算体系的重要技术之一,联邦学习(Federated Learning,FL)是一种使用中央服务器训练共享全局模型的机制,同时将所有敏感数据保存在数据所属的本地机构,为连接分散的医疗数据源和保护隐私提供了巨大前景...联邦学习是一个用中央服务器从分散在大量不同客户端的数据训练一个高质量的共享全局模型的问题。...现有关于处理联邦学习统计挑战的研究可以归纳为两个领域,即共识解决方案(agnostic federated learning、q-Fair Federated Learning等)和多元解决方案(Multi-task...可以考虑三种降低通讯成本的方法,即减少客户端的数量、减少每次更新通讯的比特数、减少训练过程所需的更新数。...四种应对联邦学习通讯挑战的方法:模型压缩、客户端选择、减少更新、P2P学习 为了避免恶意的客户端模型训练过程中学习推测出其他客户端的数据、保护模型构建者及数据提供方的隐私,有两种常用的理论框架:多方安全计算

2K10

腾讯 AngelFL 联邦学习平台揭秘

何在保护用户隐私的前提下,联合多个数据源进行模型训练,成为一个新的挑战。 数据孤岛与隐私 发展历程 针对数据孤岛问题,联邦学习,一种新的机器学习技术为这一挑战提出了一种的解决方案。...在 2019 年初发表的论文 《Federated Machine Learning: Concept and Applications》 ,中国香港科技大学的杨强教授进一步发展了 Federated...这里介绍几个主要的框架: 2019年1月,谷歌发布了TensorFlow 2.0 Alpha版本,其中包括特性TFF(TensorFlow Federated)。...,然后 A 通过加密方式,将中间数据发送给 B,B 根据标签计算预测误差,并将模型更新信息加密后传回 A; 3)模型收敛后训练结束,A、B 分别持有模型与自己维度 X 相关部分的参数,并共同提供模型服务...加密解密加速 - 联邦学习涉及大量的数字加密和解密操作,属于计算密集型任务,可以采用硬件 GPU 加速来解决,这方面研发团队正在探索

3.6K30

谷歌推出“Federated Learning”,一种全新的机器学习模式

工作原理 Federated Learning 的工作方式如下: 智能手机下载当前版本的模型 通过学习本地数据来改进模型 把对模型的改进,概括成一个比较小的专门更新更新被加密发送到云端 与其他用户的更新即时整合...,作为对共享模型的改进 所有的训练数据仍然在每名终端用户的设备,个人更新不会在云端保存。...谷歌表示,Federated Learning 的主要优点有: 更智能的模型 低延迟 低功耗 保障用户隐私 另外,在向共享模型提供更新之外;本地的改进模型可以即时使用,这能向用户提供个性化的使用体验。...在数百万不同的智能手机上部署 Federated Learning,需要非常复杂的技术整合。设备本地的模型训练,使用的是迷你版的 TensorFlow。...非常细致的 scheduling 系统,保证只有用户手机闲置、插着电、有 Wi-Fi 时才训练模型。所以在智能手机的日常使用Federated Learning 并不会影响性能。

1.7K100

想了解风头正劲的联邦学习?这篇包含400多个参考文献的综述论文满足你

对联邦学习技术不断增长的需求带来了大量可用的工具和框架,包括 TensorFlow Federated [38]、Federated AI Technology Enabler [34]、PySyft...例如,服务器需要确认手机是否接通电源、在无限带宽 wi-fi 连接状态还是空闲状态,以避免影响设备用户; 广播(broadcast):选中的客户端从服务器下载当前模型权重和训练程序( TensorFlow...graph [6]); 客户端计算:每个选中的设备通过执行训练程序在本地计算模型更新,例如在本地数据上运行 SGD(就像在联邦平均算法那样); 聚合(aggregation):服务器收集全部设备更新...客户端计算、聚合和模型更新阶段的分离并非联邦学习的严格要求,但它确实排除了特定类别的算法,异步 SGD(每个客户端更新被立即应用于模型,没有聚合其他客户端更新)。...本章探讨多种使联邦学习更加高效的技术和开放性问题,包括多种可能的方法,:开发更好的优化算法,为不同客户端提供不同模型,使超参数搜索、架构搜索和 debug 等机器学习任务在联邦学习环境更加容易,提升通信效率等等

1.2K21

谷歌推出“Federated Learning”

工作原理 Federated Learning 的工作方式如下: 智能手机下载当前版本的模型 通过学习本地数据来改进模型 把对模型的改进,概括成一个比较小的专门更新更新被加密发送到云端 与其他用户的更新即时整合...,作为对共享模型的改进 所有的训练数据仍然在每名终端用户的设备,个人更新不会在云端保存。...Federated Learning 会对设备历史数据进行处理,然后对 Gboard 检索推荐模型提出改进。 与推荐算法很像,但模型更新先在本地发生,再到云端整合。...在数百万不同的智能手机上部署 Federated Learning,需要非常复杂的技术整合。设备本地的模型训练,使用的是迷你版的 TensorFlow。...非常细致的 scheduling 系统,保证只有用户手机闲置、插着电、有 Wi-Fi 时才训练模型。所以在智能手机的日常使用Federated Learning 并不会影响性能。

956100

谷歌推出“Federated Learning”

工作原理 Federated Learning 的工作方式如下: 智能手机下载当前版本的模型 通过学习本地数据来改进模型 把对模型的改进,概括成一个比较小的专门更新更新被加密发送到云端 与其他用户的更新即时整合...,作为对共享模型的改进 所有的训练数据仍然在每名终端用户的设备,个人更新不会在云端保存。...谷歌表示,Federated Learning 的主要优点有: 更智能的模型 低延迟 低功耗 保障用户隐私 另外,在向共享模型提供更新之外;本地的改进模型可以即时使用,这能向用户提供个性化的使用体验。...在数百万不同的智能手机上部署 Federated Learning,需要非常复杂的技术整合。设备本地的模型训练,使用的是迷你版的 TensorFlow。...非常细致的 scheduling 系统,保证只有用户手机闲置、插着电、有 Wi-Fi 时才训练模型。所以在智能手机的日常使用Federated Learning 并不会影响性能。

649110

Science China|用增强的联邦学习应对药物发现数据小和偏的困境

在联合训练:(i) 协调服务器向每个客户端传送 (Broadcast) 最新的共享全局模型;(ii) 客户端在本地进行模型更新的计算,(iii) 对模型更新进行加密和上传;(iv) 最后,协调服务器安全地汇总所有加密的模型更新内容...在每一轮跨孤岛的联合训练, (i) 协调服务器向每个客户端传送最新的共享全局模型, (ii) 每个客户端通过执行训练程序在本地计算模型更新, (iii) 根据安全聚合协议 (Secure Aggregation...其中,模型更新频率,即客户端在上传加密的模型更新前应在本地运行多少个epoch,是一个有影响的超参数。...如表2所示,在5个独立的运行,每5个epochs的本地训练性能模型更新,平均产生了最佳的预测性能。 表2 使用不同的Federated Averaging epochs的性能 ?...虽然联邦学习仍可能存在一些安全问题和恶意或非恶意的失败,模型更新中毒、数据中毒和数据管线失败,但它已经引起了大量的关注,并一直在快速改进和发展。

51840

手机里跑个 AI 模型 | 谷歌 Federated Learning 联盟学习

我想大家都在经历着下面的一个或多个阶段: 论文答辩前夕,把自己敲进去的三千多条数据放进SAS,哗的一下模型出来了,兴奋不已,感觉前途一片光明; 将数据库几G的本地数据导入SAS,点击运行,机器轰然作响...工作原理 Federated Learning 的工作流程如下: 手机下载现有模型 用手机的本地数据来训练模型 训练好后,迭代更新,并把更新的内容加密上传到云端 与其他用户的更新进行整合,作为对共享模型的改进...Federated Learning 在训练本地模型时,使用简化版的 TensorFlow,配合精心的程序调度,并确保训练模型只在手机在闲置、插着电、有 Wi-Fi 时才进行。...挑战与解决 然而问题还是有的,谷歌承认实现 Federated Learning 还有一些技术上的挑战: 在典型的机器学习系统,超大型数据集会被平均分割到云端的多个服务器上。...但在 Federated Learning 系统,数据以非常不平均的方式分布在数百万的移动设备上。而且,智能手机的延迟更高、吞吐的流量更低,并且仅可在保证用户日常使用的前提下,断断续续地进行训练。

1.8K60
领券