Python:numpy的总结(1)

1、multiply 例子:

x1=[1,2,3];x2=[4,5,6] print multiply(x1,x2)

输出:

[ 4 10 18]

multiply函数得到的结果是对应位置上面的元素进行相乘。

2、std 标准方差 ,var 方差

例子:

b=[1,3,5,6]

print var(b)

print power(std(b),2) ll=[[1,2,3,4,5,6],[3,4,5,6,7,8]]

print var(ll[0])

print var(ll,0)#第二个参数为0,表示按列求方差 print var(ll,1)#第二个参数为1,表示按行求方差

输出:

3.6875 3.6875 2.91666666667 [ 1. 1. 1. 1. 1. 1.] [ 2.91666667 2.91666667]

var输出向量的方差,std输出向量的标准方差。

3、mean 例子:

b=[1,3,5,6]

print mean(b)

print mean(ll) #全部元素求均值

print mean(ll,0)#按列求均值

print mean(ll,1)#按行求均值

结果:

3.75 4.5 [ 2. 3. 4. 5. 6. 7.] [ 3.5 5.5]

mean函数得到向量的均值。

4、sum 求和 例子

x=[[0, 1, 2],[2, 1, 0]]

b=[1,3,5,6]

print sum(b)

print sum(x)

输出:

15 6

sum求向量的和。也可以求矩阵所有元素的和

5、cov()

例子:

b=[1,3,5,6]

print cov(b)

print sum((multiply(b,b))-mean(b)*mean(b))/3

输出:

4.91666666667 4.91666666667

cov求的是样本协方差 公式如下:

公式一是样本均值 公式二是样本方差 公式三是样本协方差。 上面的函数cov就是使用样本协方差求得的。

例子:

x=[[0, 1, 2],[2, 1, 0]]

print cov(x)

print sum((multiply(x[0],x[1]))-mean(x[0])*mean(x[1]))/2

输出结果:

[[ 1. -1.][-1. 1.]] -1.0

cov的参数是矩阵,输出结果也是矩阵!输出的矩阵为协方差矩阵! 计算过程如下:

截图来源维基百科:协方差矩阵

6、corrcoef 该函数得到相关系数矩阵。 例子:

vc=[1,2,39,0,8] vb=[1,2,38,0,8]

print mean(multiply((vc-mean(vc)),(vb-mean(vb))))/(std(vb)*std(vc)) #corrcoef得到相关系数矩阵(向量的相似程度)print corrcoef(vc,vb)

输出结果:

0.999986231331

[[ 1. 0.99998623][ 0.99998623 1. ]]

相关系数公式:

对应着公式理解上面的代码,应该是很容易的。

7、vdot 向量的点积 例子:

#vdot 返回两向量的点积l1=[1,2,3] l2=[4,5,6] print vdot(l1,l2)

结果:

32

点积没什么说的,对应位置相乘求和。

8、mat 例子:

l1=[1,2,3] l2=[4,5,6] ll=[l1,l2]

print vdot(l1,l2)

print mat(l1)*mat(l2).T

print mat(ll)

结果:

32

[[32]]

[[1 2 3][4 5 6]]

mat函数把列表转换成矩阵形式。这在矩阵运算中不可缺少。

9、shape 例子:

#矩阵有一个shape属性,是一个(行,列)形式的元组 a = array([[1,2,3],[4,5,6]])

print a.shape

结果:

(2, 3)

shape返回矩阵的行列数

10、ones 例子:

#返回按要求的矩阵ones = ones((2,1))

print ones

结果:

[[ 1.] [ 1.]]

ones返回指定行列数的全一矩阵

原文发布于微信公众号 - 机器学习算法与Python学习(guodongwei1991)

原文发表时间:2016-06-02

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏null的专栏

深度学习算法原理——Softmax Regression

一、Logistic回归简介 image.png image.png 二、Softmax回归 2.1、Softmax回归简介 image.png 2.2、Sof...

6026
来自专栏杨熹的专栏

神经网络 之 线性单元

本文结构: 什么是线性单元 有什么用 代码实现 ---- 1. 什么是线性单元 线性单元和感知器的区别就是在激活函数: ? 感知器的 f 是阶越函数: ? 线性...

3344
来自专栏iOSDevLog

决策树

1174
来自专栏海天一树

决策树

决策树是一种特殊的树形结构,一般由节点和有向边组成。其中,节点表示特征、属性或者一个类。而有向边包含有判断条件。如图所示,决策树从根节点开始延伸,经过不同的判断...

2392
来自专栏人工智能LeadAI

pytorch入门教程 | 第五章:训练和测试CNN

我们 按照 pytorch入门教程(四):准备图片数据集准备好了图片数据以后,就来训练一下识别这10类图片的cnn神经网络吧。 按照 pytorch入门教程(三...

81310
来自专栏派树AI

machine learning笔记基础——线性代数基础

对于复合的矩阵运算问题,和普通数字加减乘除是一样的,有括号先算括号,有乘除就算乘除,最后算加减。例如:

1360
来自专栏深度学习那些事儿

风格迁移(Style Transfer)中直方图匹配(Histogram Match)的作用

风格迁移是神经网络深度学习中比较重要且有趣的一个项目。如果不知道什么是风格迁移的请参考这篇文章:https://oldpan.me/archives/pytor...

58114
来自专栏深度学习那些事儿

理解深度学习:与神经网络相似的网络-自编码器(上)

本篇文章可作为<利用变分自编码器实现深度换脸(DeepFake)>(稍后放出)的知识铺垫。

1808
来自专栏张俊红

决策树-CART算法

总第80篇 01|前言: 本篇接着上一篇决策树详解,CART是英文“classification and regression tree”的缩写,翻译过来是分...

3725
来自专栏null的专栏

简单易学的机器学习算法——K-Means++算法

一、K-Means算法存在的问题 由于K-Means算法的简单且易于实现,因此K-Means算法得到了很多的应用,但是从K-Means算法的过程中发现,K-Me...

3665

扫码关注云+社区

领取腾讯云代金券