首页
学习
活动
专区
圈层
工具
发布
首页标签神经网络

#神经网络

模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似

贝叶斯张量网络核机的拉普拉斯近似

CreateAMind

块对角海森矩阵。 块对角海森矩阵近似的使用在贝叶斯神经网络文献中已被证明是有效的 Martens and Grosse, 2015, Botev et al.,...

3310

OpenAI翁家翌:梯度之外,下一个AI训练范式有着落了?

Amusi

当然,翁家翌也指出了这套方法的边界:代码的表达能力终究有限,复杂感知和长程泛化还是神经网络的主场。他认为更有前景的方向是两者结合 —— 用 Heuristic ...

9110

仿脑架构可减少AI对海量数据依赖

用户11764306

研究团队聚焦于现代AI系统中常用的三种主要神经网络设计:Transformer、全连接网络和卷积神经网络。

5910

Transformer架构:驱动AI革命的核心理念

用户11764306

当今最强大的AI工具——无论是能够总结文档、生成艺术作品、创作诗歌,还是预测极其复杂蛋白质折叠方式的工具——都依赖于“Transformer”架构。这种神经网络...

11210

用代码的确定性,替代大模型的模糊性:神经符号AI 才是Claude成功的秘诀

走向未来

如果你这几年一直在关注人工智能,那你一定见识过什么叫“坐过山车”。从刚开始连一句完整的话都说不利索,到后来能写诗、能写代码、能通过各种资格考试——AI的进步,快...

10410

AI计算架构对比:CPU, GPU, TPU, NPU, LPU

用户11764306

现代AI不再由单一类型的处理器驱动——它运行在一个多样化的专用计算架构生态系统中,每种架构都在灵活性、并行性和内存效率之间做出了深思熟虑的权衡。传统系统严重依赖...

91810

AAAI 2026|DGKAN:结合KAN和图神经网络用于遥感多模态变化检测

Amusi

转载自:遥感与深度学习 题目:DGKAN: Dual-branch Graph Kolmogorov-Arnold Network for Unsupervis...

25210

居民健康调查数据|高血压慢性病影响因素识别:Python逻辑回归LR多层感知器MLP预测|附数据代码

拓端

本研究选择逻辑回归和多层感知器神经网络两种模型进行对比。逻辑回归具有良好的可解释性和计算效率,适合大规模数据处理;神经网络具有较强的非线性拟合能力,能够捕捉复杂...

15810

J. Med. Chem. | 面向药物研发的分子表征学习

DrugIntel

其中,ECFP(Extended Connectivity Fingerprint) 是目前最广泛使用的指纹,由 Rogers & Hahn 于 2010 年系...

11210

J. Med. Chem. | 面向药物研发的分子表征学习

DrugAI

其中,ECFP(Extended Connectivity Fingerprint) 是目前最广泛使用的指纹,由 Rogers & Hahn 于 2010 年系...

15910

老板总问临时数据,企业到底有没有必要上智能问数?

本体智能

真正需要先判断的,不是“要不要买一个会聊天的问数工具”,而是企业面对的临时数据需求,究竟属于固定口径查询、跨系统临时分析,还是跨部门语义冲突下的复杂决策问题。从...

16810

神经网络增强的相对论重离子碰撞贝叶斯全局分析

CreateAMind

Neural network enhanced Bayesian global analysis of relativistic heavy ion colli...

10810

神经调质的时间信用分配扩散机制

CreateAMind

Diffusion of Neuromodulators for Temporal Credit Assignment

7310

Transformer到底是什么?为什么我还是无法理解Transformer?

烟雨平生

究其原因,是但凡讲到Transformer,铺天盖地的资料上来就直奔自注意力机制(Self-Attention)的Q、K、V细节,只钻枝叶、不谈全局,只见树林,...

75612

为什么我还是无法理解Transformer?Transformer到底是什么?

烟雨平生

那Transformer架构究竟是什么?它是一种神经网络结构,是一种经众多企业与研究机构验证、具备极高实用价值的神经网络结构。

12610

Transformer灵魂1问:Embedding层的嵌入矩阵权重为什么要乘以sqrt(d_model)进行缩放?

烟雨平生

简单来说,这个缩放的核心目的是为了维持数值稳定性,保持梯度稳定、防止数值爆炸或消失,从而提升训练稳定性。

10210
领券