首页
学习
活动
专区
工具
TVP
发布

大数据和机器学习

专栏成员
31
文章
33193
阅读量
14
订阅数
图神经网络模型总结
在讨论GNN之前,我们先来了解一下什么是图。在计算机科学中,图是由顶点和边两部分组成的一种数据结构。图G可以通过顶点集合V和它包含的边E来进行描述。
opprash
2020-01-20
2.1K0
textgcn
论文:Graph Convolutional Networks for Text Classification. Liang Yao, Chengsheng Mao, Yuan Luo∗.
opprash
2020-01-19
2K0
马尔可夫(Markov)相关
马尔可夫(Markov)相关概念包括马尔可夫过程(Markov Process),马尔可夫奖赏过程(Markov Reward Process),马尔可夫决策过程(Markov Decision Process)等。我们说他们都是具有马尔可夫性质(Markov Property)的,然后MRP就是再加上奖赏过程,MDP就是再加上决策过程。那么什么是马尔可夫性质呢?我们上边也提到过,用一句话来说就是“The future is independent of the past given the present” 即 “在现在情况已知的情况下,过去与将来是独立的”再通俗一点就是我们可以认为现在的这个状态已经包含了预测未来所有的有用的信息,一旦现在状态信息我们已获取,那么之前的那些信息我们都可以抛弃不用了。MDP描述了RL的Environment,并且这里的环境是完全可见的。而且几乎所有的RL问题都可以转为成为MDP,其中的部分可观测环境问题也可以转化为MDP
opprash
2020-01-14
9590
Transformer
Transformer来自于谷歌的工作attention is you need!
opprash
2020-01-14
8220
深度强化学习入坑笔记一
总的来说,强化学习属于机器学习的一种,我们都知道机器学习分为有监督与学习和无监督学习,有监督学习通过大量有标记的数据来训练,所以有监督训练是黑白分明的,啥意思呢?一个训练数据你给了他什么标签,它就属于哪一种,无监督学习就是通过一大批未知数据来进行训练得到一个盒子,然后你属于一个未知数据进去预测,看看会输出结果,它属于一种对先验样本的复现过程,而强化学习呢,没有一个明确的规定说你这个行动是绝对的对或者错,只有好与不好之分,好的话给你奖励(Reward),越好的话奖励越高,坏的话给你惩罚(-Reward),越坏的话惩罚越痛,它不是那么的黑白分明,是有灰度的存在。所以我更认同强化学习与监督式学习以及非监督式学习一起组成了机器学习的观点(如图),
opprash
2020-01-14
8120
deeplearningai读书笔记(一)
0值初始话:初始化网络的所有权值为0,在反向传播的而过程中由于权重系数都为0导致所有的维度权重相同,此时每一层退化为只有一个神经元。
opprash
2019-09-26
4510
softmax函数整理
假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的Softmax值就是:
opprash
2019-09-25
2.4K0
lda模型小记
lda模型是一个词袋模型,它认为一个文档由一组关键的词构成,这些词之间没有先后顺序,一篇文档可以有很多个主题,文档中的每个词都来自于这些主题中的其中一个。它是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。
opprash
2019-09-23
8930
tensorflow学习(keras)
keras是一个可用于快速构建和训练深度学习模型的API。里面的模型的一般的使用流程如下:
opprash
2019-09-20
5860
tensorflow学习(tensorflow概念和用tensorflow拟合直线回归)
尽管深度学习背后的数学概念已经出现几十年了,但是用于创建和训练这些深度模型的程序类库在最近几年才出现。不幸的是,大多数类库都会在灵活性和实际生产价值上做出权衡。易用性的类库对于科研是无比珍贵的,因为这样科技工作者们才更方便地研究出新的模型框架,但是,如果考虑到实际生产的话,它们往往训练又太慢而没有实际的应用价值。另一方面,快、高效的类库,部署到分布式硬件上是可行的,但是它们只针对具体的那些神经网络,对新发明的网络又不适用。
opprash
2019-09-20
6430
代码实现三层神经网络的手写字训练及测试
本篇使用的原理和计算公式是来自于上一篇:神经元矩阵计算示例 废话不说直接上代码: import numpy import scipy.special import matplotlib.pyplot class network: def __init__(self , inputnodes, hiddennodes, outputnodes,learningrate ): self.inputnodes=inputnodes self.hiddennodes=hidd
opprash
2019-09-18
6780
神经元矩阵计算示例
权重矩阵(输入层1到隐藏层2的权重矩阵,其中,每一列代表输入层的某一个节点到下一层的所有节点的权重值,每一行代表下一层中某个节点接收到的权重,这样计算的时候就是权重矩阵点乘输入矩阵,得到的结果也是一个矩阵shape和上一个输入矩阵的一样,也是一个n*1的矩阵代表下一层的输入):
opprash
2019-09-17
1.5K0
词转化为词向量
2013年末,谷歌发布了word2vec工具,引起了热捧,大家几乎都认为它是深度学习在NLP的一项了不起的应用,并且很多互联网公司也开始跟进,使用word2vec解决实际问题。
opprash
2019-09-16
2.4K0
RNN与LTSM学习
在自然语言处理(nlp)中最基本的对一句话的处理是能够理解句子的意思,比如有一句话是:我是学生,我需要写_____。这里需要知道句子前面的意思才能对句子进行填空,在我们理解这一段话的过程中我们一定是基于之前所学的,比如学生的定义,学生一天需要做什么,才能准确对他的行为进行预测,这就是RNN的精华所在,你不可能放弃所有的东西,从某一个方面单独切入,你的所做所想肯定和之前的东西有一定的关联性,也就是说思维具有了连续性。
opprash
2019-09-12
1.6K0
XGBOOST算法
随机森林是在决策树(回归树)的基础上放入许多棵树,并行的,独立的构造出每一棵树,构成一个森林,这些树之间本身没有关系,通过最后将森林中所有的结果选举出最佳的结果达到优化提升的目的。
opprash
2019-09-10
7330
基于k-means++和brich算法的文本聚类
分词和过滤停用词,这里分词有两步,第一步是对停用词进行分词,第二步是切分训练数据。
opprash
2019-09-09
2.4K0
leetcode-18
def removeNthFormEnd(self,head,n): node_list=[] #连接所有的几点组成链表 while head: node_list.append(head) if head.next is None: break else: head=head.next #当只有一个节点的时
opprash
2019-09-02
3540
numpy小结
numpy是进行科学运算不可或缺的工具,很多其他科学计算的库也是基于numpy的,比如pandas
opprash
2019-09-02
8270
GBDT梯度提升树
GBDT的全称是Gradient boosting decision tree,它是通过拟合负梯度Gradient boosting和决策回归树decision tree组合而成,该算法由多颗决策树构成,多颗决策树的结果加起来作为最终结论。让损失函数沿着梯度方向的下降。这个就是GDBT 的 GB的核心。GBDT 每轮迭代的时候,都去拟合损失函数在当前模型下的负梯度。(如果损失函数使用的是平方误差损失函数,则这个损失函数的负梯度就可以用残差来代替,以下所说的残差拟合,便是使用了平方误差损失函数)。
opprash
2019-09-02
1.6K0
随机森林
随机森林算法的思想就是通过集成学习和随机的方式将多棵树集成的一种算法,通过多棵树对数据集进行学习训练最后投票选举出最佳的一个最终的输出。这里每一棵树是一颗决策树,也叫作一个分类器。
opprash
2019-08-30
8430
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档