首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

北航类脑芯片团队提出“混合概率逻辑计算”机制

1 研究背景 近几年,随着人工智能、深度学习的迅速发展,类脑计算逐渐成为学术界、产业界的另一个研究热点。早在1943年,心理学家提出人工神经元数学模型以来,人工智能就一直依赖着数据计算、神经科学的发展,对非二进制数的类脑计算的突破,将对类脑计算的构造起到决定性作用。 今天,深度学习神经网络是一种生物学简化的模型,具有数学可解释性,硬件架构(冯诺依曼架构)可实现性。而硬件实现受限于布尔逻辑(二进制数)和冯氏架构代来的物理瓶颈,使得当前的AI计算芯片与脑计算存在着巨大差异。尽管深度学习在一些固定任务上超越人类,

01

业界 | 一文看懂谷歌 NYC 算法与优化业务全景(附重点论文下载)

AI 科技评论消息,众所周知,谷歌的研究团队遍布世界各地,而纽约自然也是非常重要的一个地点,尤其是多个谷歌算法研究小组的孕育地。目前,谷歌算法优化团队为谷歌产品的顺利诞生提供了非常多的算法支持,解决了诸多挑战,包括基础优化、隐私保护、提升好友推荐度等多重挑战。 为了让大家更能第一时间了解到谷歌算法及优化的最新进展,谷歌研究院博客于今天更新了消息,谷歌 NYC 算法优化团队公布了主页。而从这个主页中,AI 科技评论也将和大家一窥谷歌算法优化团队的全貌。 目前,团队与谷歌内部的多个团队有着紧密联系,包括广告

06

推荐算法

在实践中,大多数业内人士都是用一种被称为「随机梯度下降」(SGD - Stochastic Gradient Descent)的算法(梯度下降Grident Descent 是「最小化风险函数」以及「损失函数」的一种常用方法,「随机梯度下降」是此类下的一种通过迭代求解的思路)。每一次迭代包括以下几个步骤:获取一些样本的输入矢量( input vector),计算输出结果和误差,计算这些样本的平均梯度,根据平均梯度调整相应权重。这个过程在各个从整个训练集中抽取的小子集之上重复,直到目标函数的平均值停止下降。它被称做随机(Stochastic)是因为每个样本组都会给出一个对于整个训练集( training set)的平均梯度(average gradient)的噪音估值(noisy estimate)。较于更加精确的组合优化技术,这个简单的方法通常可以神奇地快速地找出一个权重适当的样本子集。训练过后,系统的性能将在另外一组不同样本(即测试集)上进行验证,以期测试机器的泛化能力( generalization ability) ——面对训练中从未遇过的新输入,机器能够给出合理答案。

00

生命科学的重写理论: CTMC语义学的统一理论(CS LO)

Kappa 生物化学和MD有机化学框架是迄今为止在生命科学中重写理论方法的最为成熟的应用之一。这些类型的重写理论的一个典型特征是必须对要重写的对象实施某些结构约束(一个蛋白质被经验性地发现具有某些特定的位点,一个碳原子最多可以形成四个键,...)。 在本文中,我们为这些类型的重写理论的理论基础做出了贡献,许多概念和技术的发展使得连续时间马尔可夫链(CTMCs)的通用理论能够应用于随机重写。 我们的核心数学概念是一个新颖的规则代数结构,用于在双重和倍半推出语义学中相关的重写规则设置,并通过一个合适的随机力学形式扩展得到模式计数统计的动态演化方程。

01
领券