机器之心报道 编辑:泽南、小舟 Ray 被 OpenAI、亚马逊等科技公司用来开发大模型,是最近异军突起的框架。 最近一段时间,文本生成的人工智能在互联网上掀起了一阵风暴:ChatGPT 因为可以对人们能想到的几乎任何问题提供非常详细、近乎逼真的回答而受到追捧。大模型应用的出现让人们对于 AI 技术突破充满了信心,不过很少有人知道在其背后,一个分布式机器学习框架正为这场生成式 AI 革命提供动力。 分布式计算框架 Ray 来自 A16z 支持的初创公司 Anyscale,它是使 OpenAI 能够强化其训练
作者 | Wesley Du, Junwei Deng, Kai Huang, Shan Yu and Shane Huang 作者是英特尔人工智能和分析团队的解决方案架构师,该团队一直致力于 BigDL 的开发。数据科学家和数据工程师可以使用 BigDL 轻松构建端到端的分布式 AI 应用。 1 介绍 Ray 是一个能够非常快速和简单地去构建分布式应用的框架。BigDL 是一个在分布式大数据上构建可扩展端到端 AI 的开源框架,它能利用 Ray 及其本地库(Native Libraries)来支
下一代AI应用需要不断和环境进行交互,并且在交互中学习。这些应用暴露了新的系统需求:性能和弹性。本文提出了Ray解决上述问题。
随着机器学习的算法和技术的进步,越来越多的机器学习应用程序需要多台机器,并且必须利用并行性。但是,在集群上进行机器学习的基础设施仍然是特设的。尽管针对特定用例(如 参数服务器或超参数搜索)和AI(人工智能)之外的高质量分布式系统(如Hadoop或Spark)提供了良好的解决方案,但在边界开发算法的从业者往往从头构建自己的系统基础架构。这相当于多余的努力。
选自arXiv 机器之心编译 参与:路雪、刘晓坤 为应对新型 AI 应用不断提高的性能需求,近日 Michael Jordan 等人提出了一个新型的分布式框架 Ray,主要针对当前集群计算框架无法满足高吞吐量和低延迟需求的问题,以及很多模拟框架局限于静态计算图的缺点,并指出强化学习范式可以自然地结合该框架。 人工智能在一些现实世界应用中正逐渐发展为主力技术。然而,到目前为止,这些应用大部分都是基于相当受限的监督学习范式,其中模型是离线学习的,然后提供在线预测。随着人工智能领域的成熟,使用比标准的监督学习设
在过去的几年里,Python已成为数据科学和人工智能的通用语言,所有使用Python作为主要界面语言的着名深度学习框架(Keras,Pytorch,MXNet)。与竞争语言相比,Python在DS和AI的几乎每个方面都可以与之竞争或超越:最新的机器学习算法及其高效实现(Scikit-Learn,LightGBM,XGBoost),数据处理和分析(Pandas,cuDF),高效的数值计算库(Numpy) ,PyPy,Numba),GPU计算(CuPY)和Web API编程(Flask,Celery)。
译者|马卓奇 编辑|Natalie AI 前线导读:下一代人工智能应用程序需要不断地与环境交互,并从这些交互中学习。这对系统的性能和灵活性提出了新的要求,而现有的机器学习计算框架大多无法满足这些要求。为此,UC Berkeley AMP 实验室开发了一个高性能分布式执行框架 Ray,并于近日在 Arxiv 上发表了相关论文:《Ray: A Distributed Framework for Emerging AI Applications》。 更多干货内容请关注微信公众号“AI 前线”,(ID:ai-f
第一件事,是Spark 3.0 开始重构shuffle部分,用以支持remote shuffle。这意味着我们终于可以为shuffle专门准备一个存储集群了,比如一个单独的HDFS之类的。这是Spark架构前进的一小步,也是业界开始朝计算和存储分离走了坚实的一步。计算和存储分离的好处我们就不多讲,而计算和存储的分离的前提是内网速度要足够快,所以也意味着内网速度已经基本达到要求了。通过这个我是想告诉大家,内网已经足够快。就像5G足够快,会带来什么,很快就会有结果。
前段时间,Zilliz 软件工程师 Filip Haltmayer 受邀参加开源社区 Ray 的月度 Meetup 活动,分享了 “one step to distributed embedding vectors generation with Ray” 的主题演讲,与海内外开发者分享了开源向量数据库 Milvus 和非结构化数据 ETL 平台 Towhee 赋能开源执行框架 Ray 的经验与思考。作为全球最受欢迎的开源向量数据库 Milvus 的创造者,Zilliz 致力于研发面向企业级 AI 应用的向量数据库系统,帮助企业便捷开发 AI 应用。
随着机器学习算法和技术的进步,越来越多的机器学习应用程序需要多台机器,而且必须利用并行性。但是,在集群上进行机器学习的基础设施仍然是专门设置的。尽管针对特定用例(如参数服务器或超参数搜索)和AI之外的高质量分布式系统(如Hadoop或Spark)提供了良好的解决方案,但在边界开发算法的从业者往往从头构建自己的系统基础架构。这些努力相当于是多余的。
> 本文作者来自MLSQL社区 & Kyligence 机器学习平台工程师 Andie Huang
选自BAIR Blog 机器之心编译 参与:李泽南、刘晓坤 不久之前,机器之心推荐了一篇论文,介绍 UC Berkeley 研究员发布的分布式系统 Ray(参见:学界 | Michael Jodan 等人提出新型分布式框架 Ray:实时动态学习的开端》。开发者称,Ray 专门为人工智能应用设计,通过这款框架,运行于笔记本电脑上的原型算法仅需加入数行代码就可以转化为高效的分布式计算应用。近日,该框架已被开源。在本文中,伯克利官方 AI 博客对开源框架 Ray 做了详细介绍。 GitHub 链接:https:/
时间序列简单来讲是指一系列在时间轴上有序的数据,而时序预测是根据过去时间点的数值来预测将来时间点上的数值。现实中,时间序列预测除了在电信运营商中的网络质量分析、面向数据中心运营的日志分析、面向高价值设备的预测性维护等多有应用之外,还可用作异常检测的第一步,以帮助在实际值偏离预测值过多时触发警报。
翻译自 5 Key Learnings about AI and ChatGPT in the Enterprise .
一个致力于造假,一个专注于打假;光是听起来,就不禁让人联想到「矛」与「盾」的故事。那到底哪个更胜一筹呢?VB 发布了的相关内容介绍了这两个成果,我们将其整理及编译如下。
前些日子,Deepfake技术现身印度选举,被候选人用在了竞选拉票的宣传材料上。虽然此候选人以惨败而收场,但这意味着Deepfake点燃的AI换脸之火有逐渐升温的迹象。
刚刚在Pandas上为十几KB的数据做好了测试写好了处理脚本,上百TB的同类大型数据集摆到了面前。这时候,你可能面临着一个两难的选择: 继续用Pandas?可能会相当慢,上百TB数据不是它的菜。 (ಥ
Python pandas、NumPy、scikit-learn 只能在单机运行,如果你还还在困扰如何将这些任务横向扩展,这本书正适合你!
vLLM 是一个快速且易于使用的库,用于 LLM 推理和服务,和 HuggingFace 无缝集成。区别于 chatglm.cpp 和 llama.cpp,仅是在 GPU 上的模型推理加速,没有 CPU 上的加速。
前一天发布 LLMPerf 排行榜,宣称要推动大型语言模型推理领域的发展,鼓励创新与超越。
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。
http://qwone.com/~jason/20Newsgroups/20news-19997.tar.gz
平台工程 绝对已经起飞。事实上,平台工程是几个月前在巴黎举行的 KubeCon + CloudNativeCon Europe 2024 的热门话题。
AI 一直是游戏开发中一个热门词汇,当然这不是人工智能的那个 AI ,而是指有着人类思想的 NPC 或者聪明的敌人等等。根据游戏的类型和复杂程度, AI 的实现可以很简单,也可以非常复杂。作为新手,本文不会讨论所谓高级 AI 的实现方式,那太不现实,不过我们可以先从最简单、最常用也是最实用的 AI 寻路探索开始入手,进而丰富我们的小游戏!
今年四月,Michael Jordan 在 Medium 上发表了一篇名为《人工智能:革命尚未到来》的文章。文章指出,如今「AI」这个概念被各界人士当做包治百病的万金油,大肆使用,但不同人在使用「AI」一词时,指代的其实是不同的学科领域,常见的有三类:
呜啦啦啦啦啦大家好呀,又到了本周的AI大事件时间了。过去的一周中AI圈都发生了什么?大佬们互撕了哪些问题?研究者们发布了哪些值得一读的论文?又有哪些开源的代码和数据库可以使用了?文摘菌带你盘点过去一周
devpod 是一个开源的、仅限客户端的、不受限制的工具,可以与任何集成开发环境(IDE)一起使用,并允许您在任何云端、Kubernetes 或本地 Docker 上进行开发。
换了个新职位非常忙,我还会每周更新,但是估计是没时间仔细读论文了,所以评论可能就没什么深度了,精力有限,哎。 1. DeepMind新RL学习方式SAC-X,尝试通过auxiliary task来解决
大数据和AI两者最核心的部分都是数据。大数据的主要工作是对数据进行各种转换和存储。而AI的主要工作是学习数据并且得出模型。 AI天然需要大数据的基础,因为AI需要各种形态的数据,而我们得到这些形态的数据,必然离不开大数据。就此而言,他们两个合在一起,才是一个完整的工作流。
虽然研究者们为检测换脸图片提出了多种AI鉴别算法,但随着换脸算法的不断改造升级,鉴别算法很难跟上换脸算法的变化。
自从摄影术发明的那一刻起,人们便开始孜孜不倦地进行着技术改造。在今天,没有一家手机厂商不在追求更多的摄像头、更高的像素、更先进的成像算法,似乎只为追求一张更逼真的影像。
继 Spark 之后,UC Berkeley AMP 实验室又推出一重磅高性能AI计算引擎——Ray,号称支持每秒数百万次任务调度。那么它是怎么做到的呢?在试用之后,简单总结一下:
新智元原创 作者:克雷格 【新智元导读】很多人相信,人工智能将会增强人类,Superhuman成为新的“人类”。更激进的如马斯克等人认为,奇点来临之后,超级人工智能将会出现,人类面临从属地位,Superhuman会成为对抗超级人工智能的机会。 最近,Sebastian Thurn又一次提出了“Superhuman”的观点。 他认为,人工智能将使人类变成“超人类工人”(Superhuman Workers)。 Sebastian Thurn是飞行汽车创业公司Kitty Hawk的CEO、Udacity
最先进的AI和机器学习算法不仅可以生成栩栩如生的位置和物体的图像,还擅长将人脸头像从一个人换成另一个人的。另一方面,研究人员也在不断开发能够检测deepfake假图像的识别工具。这场在机器学习图像识别领域的“矛与盾”之争愈演愈烈。
Ray是UC Berkeley RISELab新推出的高性能分布式执行框架,它使用了和传统分布式计算系统不一样的架构和对分布式计算的抽象方式,具有比Spark更优异的计算性能。
以下内容来自reddit 社区(Distributed computing in Rust, https://www.reddit.com/r/rust/comments/155hxlf/distributed_computing_in_rust/),由小编重新整理后发布,读起来也许会更流畅些,因为在整理过程中,会揉一些小遍的思考进去,感兴趣的小伙伴,可以在读完本文后,去读读原文,链接在上方。因为是边看reddit,边译边写边思考,可能行文会有些乱。见谅!
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周重要论文包括 DeepMind 从头开始构建、用伪代码详解 Transformer 的新研究,以及用于任意分辨率、长度和维度数据的通用 CNN 架构——CCNN。 目录: Face2Faceρ : Real-Time High-Resolution One-Shot Face Reenactment Formal Algorithms for Transformers Next-ViT: Next Gener
换脸,是滥用深度学习的结果之一。自从 Deepfakes、FaceSwap 等应用开源以后,开发者能自己生成各种换脸视频,网络上也开始流传层出不穷的「假视频」。弗吉尼亚州 7 月将 Deepfake 滥用列入非法范畴、推特 11 月发布首个反 Deepfake 策略、谷歌 10 月发布 FaceForensics 基准数据集以反对假视频。
训练一个Tensorflow模型 下面的代码仅支持Console notebook模式下运行 首先,准备minist数据集 include lib.`github.com/allwefantasy/lib-core` where force="true" and libMirror="gitee.com" and -- proxy configuration. alias="libCore"; -- dump minist data to object storage include
通过拿到远程函数的ID,可以在集群的任何地方,通过get(ID)获取该函数返回值
如果不想用Unity的导航系统,很多时候就要解决如何预判前进路径中的障碍物问题,之前也看过一些非常经典的寻路算法例如AStar寻路,虽然也可实现功能,但总感觉有些小题大做。寻路算法大多数都是为了得出最优解,但如果只是用在一个区域内随机运动的远程怪身上的话,根本就不需要用这么复杂的算法。
据 VentureBeat 报道,Google AI 利用人工智能系统,借助数千个带有高质量标签的数据库,精准解读胸部 X 射线图像。论文已发表在《自然》杂志。
首先将地面及静态物体设置为navigation static(这是后面bake的前提):
分发深度学习模型训练已经成为何时进行训练的问题,而不是如果这样做。最先进的ML模型(例如BERT)具有数亿个参数,而在一台机器上训练这些大型网络将花费数天甚至数周的时间。
我之前写过关于 现代数据湖参考架构,解决了每个企业面临的挑战 — 更多数据、老化的 Hadoop 工具(特别是 HDFS)以及对 RESTful API(S3)和性能的更大需求 — 但我想填补一些空白。
挑战在于:设计通过和动态环境交互,从而持续学习的AI系统,同时能够做出安全、及时、健壮的决策。
基于 Byzer, 算法工程师可以完全自己一个人就能快速制作和发布一个基于AI模型的应用。整个流程会包括:
我是英伟达深度学习解决方案架构师吴金钟,今天给大家介绍的是英伟达在直播场景中的解决方案。
英伟达(NVIDIA)的光线追踪技术,特别是其RTX系列显卡中集成的实时光线追踪(Real-Time Ray Tracing)技术,代表了图形处理领域的一大进步,极大地提升了游戏和专业可视化应用中的视觉真实性。
众所周知,深度学习模型仅仅只是构建 AI 产品的重要步骤,但并不是全部。一个互联网产品(如 APP)想要集成深度学习能力,往往还需要走完很多设计、开发和测试方面的工作。如何部署深度学习往往成为了系统设计中更关键的问题。
领取专属 10元无门槛券
手把手带您无忧上云